নোডজেএস ব্যবহার করে একটি সিএসভি ফাইল পার্স করা হচ্ছে


124

নোডেজের সাহায্যে আমি 10000 রেকর্ডের একটি .csv ফাইল পার্স করতে এবং প্রতিটি সারিতে কিছু অপারেশন করতে চাই। আমি http://www.adaltas.com/projects/node-csv ব্যবহার করার চেষ্টা করেছি । আমি প্রতিটি সারিতে থামতে পারি না। এটি কেবল সমস্ত 10000 রেকর্ডের মধ্যে পড়ে। আমাকে নিম্নলিখিতগুলি করা দরকার:

  1. লাইনে সিএসভি লাইন পড়ুন
  2. প্রতিটি লাইনে সময় সাশ্রয়ী ক্রিয়াকলাপ সম্পাদন করুন
  3. পরের লাইনে যান

কেউ দয়া করে এখানে কোনও বিকল্প ধারণা প্রস্তাব করতে পারেন?


হতে পারে এটি আপনাকে সাহায্য করবে: stackoverflow.com/a/15554600/1169798
সিরকো

1
আপনি কি প্রতিটি সারির কলব্যাক যুক্ত করেছেন? অন্যথায় এটি কেবল সমস্ত অ্যাসিঙ্ক্রোনালি তাদের মাধ্যমে পড়া যাচ্ছে।
বেন ফরচুন

উত্তর:


81

দেখে মনে হচ্ছে আপনার কিছু স্ট্রিম ভিত্তিক সমাধান ব্যবহার করা দরকার, ইতিমধ্যে এমন লাইব্রেরি বিদ্যমান ছিল তাই নিজেকে পুনর্বহাল করার আগে এই লাইব্রেরিটি চেষ্টা করে দেখুন, যার মধ্যে বৈধতা সমর্থনও রয়েছে। https://www.npmjs.org/package/fast-csv


26
নোডিসিএসভিও বেশ সমর্থিত এবং প্রায় এক ক্রমের পরিমাণের আরও ব্যবহারকারী থাকতে পারে। npmjs.com/package/csv
স্টিম্পওয়ার্ড

4
দ্রুত-সিএসভি দ্রুত, সহজেই ব্যবহার করা যায় এবং শুরু করা যায়।
রজার গারজন নিতো

1
এটি ইউআরএল সমর্থন করে?
ডিএমএস-কেএইচ

57

আমি এইভাবে ব্যবহার করেছি: -

var fs = require('fs'); 
var parse = require('csv-parse');

var csvData=[];
fs.createReadStream(req.file.path)
    .pipe(parse({delimiter: ':'}))
    .on('data', function(csvrow) {
        console.log(csvrow);
        //do something with csvrow
        csvData.push(csvrow);        
    })
    .on('end',function() {
      //do something with csvData
      console.log(csvData);
    });

2
আমি হয়ত কিছু ভুল করছি, তবে আমি যখন এটি চালাচ্ছি তখন parseসংজ্ঞায়িত হয় না। আমি কি অনুপস্থিত কিছু আছে? আমি যখন চালাব npm install csv-parseএবং তারপরে আমার কোড এড করুন var parse = require("csv-parse");, তখন এটি কার্যকর হয়। আপনি কি নিশ্চিত যে আপনার কাজ? যে কোনও উপায়ে, আমি এই সমাধানটি পছন্দ করি (এমনকি আমাকে csv-parseমডিউলটি অন্তর্ভুক্ত করতে হবে
Ian

1
আপনি ঠিক @ এলান, এটি csv-parseমডিউল অন্তর্ভুক্ত করা উচিত ।
দ্রাক্ষালতা

1
দুর্দান্ত, আপনার উত্তর যাচাই এবং আপডেট করার জন্য আপনাকে ধন্যবাদ!
ইয়ান

3
সুন্দর সমাধান। আমার জন্য কাজ কর.
সান বি

3
দুঃখজনকভাবে এটি খারাপ - আমি বিশাল ফাইল এবং দীর্ঘ লাইনের সাথে ত্রুটি পেয়েছি .... (স্মৃতি ত্রুটি - যদিও এটি পড়ার অন্যান্য উপায় - কাজ করে)
সেটি

54

আমার বর্তমান সমাধান সিরিজে চালিত করতে async মডিউলটি ব্যবহার করে:

var fs = require('fs');
var parse = require('csv-parse');
var async = require('async');

var inputFile='myfile.csv';

var parser = parse({delimiter: ','}, function (err, data) {
  async.eachSeries(data, function (line, callback) {
    // do something with the line
    doSomething(line).then(function() {
      // when processing finishes invoke the callback to move to the next one
      callback();
    });
  })
});
fs.createReadStream(inputFile).pipe(parser);

1
আমার মনে হয় আপনি কিছু মিস করছেন ')'?
স্টিভেন লুয়াং সি

আমি মনে করি 14 এবং 15 লাইনের শেষে একটি ')' যুক্ত করা সমস্যার সমাধান করা উচিত।
জন

@ শশাঙ্কভিবেক - এই পুরানো উত্তরে (২০১৫ থেকে), 'অ্যাসিঙ্ক' একটি এনপিএম গ্রন্থাগার যা ব্যবহৃত হয়। এ সম্পর্কে আরও caolan.github.io/async - এটি বুঝতে সহায়তা করতে পারে কারণ এটি ব্লগ.আরসিংস্ট্যাক.com / নোড- হেরো - ক্যাসিনিক- প্রোগ্রামিং- ইন- নোড- js তবে জাভাস্ক্রিপ্টটি ২০১৫ সাল থেকে অনেকটা বিকশিত হয়েছে, এবং যদি আপনার প্রশ্নটি হয় সাধারণভাবে ASYNC সম্বন্ধে আরো জানতে, তারপর এই আরো সাম্প্রতিক নিবন্ধ পড়া হয় medium.com/@tkssharma/...
prule

15
  • এই সমাধানটি উপরের কয়েকটি উত্তরের csv-parserপরিবর্তে csv-parseব্যবহার করে।
  • csv-parserপ্রায় 2 বছর পরে এসেছিল csv-parse
  • উভয়ই একই উদ্দেশ্য সমাধান করে তবে ব্যক্তিগতভাবে আমি csv-parserআরও ভাল পেয়েছি কারণ এটির মাধ্যমে শিরোনামগুলি পরিচালনা করা সহজ।

প্রথমে সিএসভি-পার্সার ইনস্টল করুন:

npm install csv-parser

সুতরাং ধরুন আপনার কাছে এর মতো সিএসভি-ফাইল রয়েছে:

NAME, AGE
Lionel Messi, 31
Andres Iniesta, 34

আপনি প্রয়োজনীয় অপারেশন হিসাবে এটি সম্পাদন করতে পারেন:

const fs = require('fs'); 
const csv = require('csv-parser');

fs.createReadStream(inputFilePath)
.pipe(csv())
.on('data', function(data){
    try {
        console.log("Name is: "+data.NAME);
        console.log("Age is: "+data.AGE);

        //perform the operation
    }
    catch(err) {
        //error handler
    }
})
.on('end',function(){
    //some final operation
});  

আরও পড়ার জন্য দেখুন


13

দ্রুত-সিএসভিতে স্ট্রিমিং বিরতি দেওয়ার জন্য আপনি নিম্নলিখিতগুলি করতে পারেন:

let csvstream = csv.fromPath(filePath, { headers: true })
    .on("data", function (row) {
        csvstream.pause();
        // do some heavy work
        // when done resume the stream
        csvstream.resume();
    })
    .on("end", function () {
        console.log("We are done!")
    })
    .on("error", function (error) {
        console.log(error)
    });

csvstream.pause () এবং পুনঃসূচনা () যা আমি খুঁজছিলাম! আমার অ্যাপ্লিকেশনগুলি সর্বদা স্মৃতি থেকে বেরিয়ে যায় কারণ এটি কীভাবে প্রক্রিয়া করতে পারে তার থেকে এটি ডেটা খুব দ্রুত পড়ছে।
এহর্হার্ড

@ আদনান এটি নির্দেশ করার জন্য ধন্যবাদ। ডকুমেন্টেশনে এটি উল্লেখ করা হয়নি এবং আমি এটিও খুঁজছিলাম।
পীযূষ বেলি

10

আপনি যে নোড-সিএসভি প্রকল্পটি উল্লেখ করছেন তা ডেস্ক: http://csv.adaltas.com / ট্রান্সফর্ম / এ থেকে CSV ডেটার একটি বৃহত অংশের প্রতিটি সারি রূপান্তরিত করার জন্য পুরোপুরি যথেষ্ট :

csv()
  .from('82,Preisner,Zbigniew\n94,Gainsbourg,Serge')
  .to(console.log)
  .transform(function(row, index, callback){
    process.nextTick(function(){
      callback(null, row.reverse());
    });
});

আমার অভিজ্ঞতা থেকে, আমি এটি বলতে পারি যে এটি একটি দ্রুত বাস্তবায়নও হয়েছে, আমি এটি প্রায় 10 কে রেকর্ড সহ ডেটা সেটগুলিতে কাজ করছি এবং প্রসেসিংয়ের সময়টি পুরো সেটটির জন্য একটি যুক্তিসঙ্গত দশম-মিলিসেকেন্ড পর্যায়ে ছিল।

Rearding jurka এর প্রবাহে ভিত্তিক সমাধান প্রস্তাবনা: নোড-CSV প্রবাহ ভিত্তি করে আর Node.js অনুসরণ 'এপিআই স্ট্রিমিং।


8

ফাস্ট-CSV npm মডিউল তথ্য লাইন বাই লাইন CSV ফাইল থেকে পড়তে পারেন।

এখানে একটি উদাহরণ:

let csv= require('fast-csv');

var stream = fs.createReadStream("my.csv");

csv
 .parseStream(stream, {headers : true})
 .on("data", function(data){
     console.log('I am one line of data', data);
 })
 .on("end", function(){
     console.log("done");
 });

1
দ্রুত-csv@4.0.2 নেই fromStream()এবং এর প্রকল্প সাইটের উদাহরণ এবং ডকুমেন্টেশন নেই।
সিইস টিমারম্যান

3

আমার একটি অ্যাসিঙ্ক সিএসভি পাঠক প্রয়োজন এবং মূলত @ প্রশংস তিওয়ারির উত্তরটি চেষ্টা করেছিলাম awaitএবং এটি দিয়ে কাজ করতে পারিনি util.promisify()। অবশেষে আমি নোড-সিএসভিটোজসন জুড়ে এসেছি , যা সিএসভি -পার্সারের মতো একই কাজ করে তবে প্রতিশ্রুতি দিয়ে। এখানে সিএসভিটোজসনের ব্যবহারের একটি উদাহরণ রয়েছে:

const csvToJson = require('csvtojson');

const processRecipients = async () => {
    const recipients = await csvToJson({
        trim:true
    }).fromFile('./recipients.csv');

    // Code executes after recipients are fully loaded.
    recipients.forEach((recipient) => {
        console.log(recipient.name, recipient.email);
    });
};

2

লাইন এনপিএম প্লাগইন দ্বারা লাইন চেষ্টা করুন।

npm install line-by-line --save

5
একটি প্লাগইন ইনস্টল করা জিজ্ঞাসা করা প্রশ্ন ছিল না। কিছু কোড যুক্ত কিভাবে প্ল্যাগ ইন ব্যবহার এবং / অথবা ব্যাখ্যা করতে কেন ওপি ব্যবহার করা উচিত এটি হবে ব্যাখ্যা করতে এ পর্যন্ত আরও উপকারী।
ডোমডামব্রোগিয়া

2

বাহ্যিক url থেকে সিএসভি ফাইল পাওয়ার এটি আমার সমাধান

const parse = require( 'csv-parse/lib/sync' );
const axios = require( 'axios' );
const readCSV = ( module.exports.readCSV = async ( path ) => {
try {
   const res = await axios( { url: path, method: 'GET', responseType: 'blob' } );
   let records = parse( res.data, {
      columns: true,
      skip_empty_lines: true
    } );

    return records;
 } catch ( e ) {
   console.log( 'err' );
 }

} );
readCSV('https://urltofilecsv');

2

প্রত্যাশিত / অ্যাসিঙ্কের সাথে এই কাজটি করার জন্য একত্রীকরণ :

const csv = require('csvtojson')
const csvFilePath = 'data.csv'
const array = await csv().fromFile(csvFilePath);

2

ঠিক আছে তাই এখানে অনেক উত্তর আছে এবং আমি মনে করি না তারা আপনার প্রশ্নের উত্তর দেয় যা আমি আমার মত মনে করি।

আপনাকে একটি অপারেশন করতে হবে যেমন কোনও ডাটাবেস বা তৃতীয় অংশ এপিআইয়ের সাথে যোগাযোগ করা যা সময় লাগবে এবং অ্যাসিক্রোনাস। বড় হওয়ার কারণে বা অন্য কোনও কারণে আপনি পুরো দস্তাবেজটিকে মেমোরিতে লোড করতে চান না তাই প্রক্রিয়াটির জন্য আপনাকে লাইনে লাইন পড়তে হবে।

আমি fs ডকুমেন্টগুলিতে পড়েছি এবং এটি পড়তে বিরতি দিতে পারে তবে .on ('ডেটা') কলটি ব্যবহার করা এটিকে অবিচ্ছিন্ন করে তুলবে যা এই উত্তরগুলির বেশিরভাগটি ব্যবহার করে এবং সমস্যা তৈরি করে।


আপডেট: আমি স্ট্রিমগুলি সম্পর্কে আমার আগে যা চেয়েছিলাম তার চেয়েও বেশি তথ্য জানি

এটি করার সর্বোত্তম উপায় হ'ল লিখনযোগ্য স্ট্রিম তৈরি করা। এটি সিএসভি ডেটা আপনার লিখনযোগ্য স্ট্রিমে পাইপ করবে যা আপনি অ্যাসিক্রোনাস কল পরিচালনা করতে পারবেন। পাইপটি বাফারটিকে পুরোপুরি পাঠকের কাছে পরিচালনা করবে যাতে আপনি ভারী মেমরির ব্যবহার বন্ধ করতে পারবেন না

সাধারণ সংস্করণ

const parser = require('csv-parser');
const stripBom = require('strip-bom-stream');
const stream = require('stream')

const mySimpleWritable = new stream.Writable({
  objectMode: true, // Because input is object from csv-parser
  write(chunk, encoding, done) { // Required
    // chunk is object with data from a line in the csv
    console.log('chunk', chunk)
    done();
  },
  final(done) { // Optional
    // last place to clean up when done
    done();
  }
});
fs.createReadStream(fileNameFull).pipe(stripBom()).pipe(parser()).pipe(mySimpleWritable)

ক্লাস সংস্করণ

const parser = require('csv-parser');
const stripBom = require('strip-bom-stream');
const stream = require('stream')
// Create writable class
class MyWritable extends stream.Writable {
  // Used to set object mode because we get an object piped in from csv-parser
  constructor(another_variable, options) {
    // Calls the stream.Writable() constructor.
    super({ ...options, objectMode: true });
    // additional information if you want
    this.another_variable = another_variable
  }
  // The write method
  // Called over and over, for each line in the csv
  async _write(chunk, encoding, done) {
    // The chunk will be a line of your csv as an object
    console.log('Chunk Data', this.another_variable, chunk)

    // demonstrate await call
    // This will pause the process until it is finished
    await new Promise(resolve => setTimeout(resolve, 2000));

    // Very important to add.  Keeps the pipe buffers correct.  Will load the next line of data
    done();
  };
  // Gets called when all lines have been read
  async _final(done) {
    // Can do more calls here with left over information in the class
    console.log('clean up')
    // lets pipe know its done and the .on('final') will be called
    done()
  }
}

// Instantiate the new writable class
myWritable = new MyWritable(somevariable)
// Pipe the read stream to csv-parser, then to your write class
// stripBom is due to Excel saving csv files with UTF8 - BOM format
fs.createReadStream(fileNameFull).pipe(stripBom()).pipe(parser()).pipe(myWritable)

// optional
.on('finish', () => {
  // will be called after the wriables internal _final
  console.log('Called very last')
})

পুরানো পদ্ধতি:

পাঠযোগ্য সঙ্গে সমস্যা

const csv = require('csv-parser');
const fs = require('fs');

const processFileByLine = async(fileNameFull) => {

  let reading = false

  const rr = fs.createReadStream(fileNameFull)
  .pipe(csv())

  // Magic happens here
  rr.on('readable', async function(){
    // Called once when data starts flowing
    console.log('starting readable')

    // Found this might be called a second time for some reason
    // This will stop that event from happening
    if (reading) {
      console.log('ignoring reading')
      return
    }
    reading = true
    
    while (null !== (data = rr.read())) {
      // data variable will be an object with information from the line it read
      // PROCESS DATA HERE
      console.log('new line of data', data)
    }

    // All lines have been read and file is done.
    // End event will be called about now so that code will run before below code

    console.log('Finished readable')
  })


  rr.on("end", function () {
    // File has finished being read
    console.log('closing file')
  });

  rr.on("error", err => {
    // Some basic error handling for fs error events
    console.log('error', err);
  });
}

আপনি একটি readingপতাকা লক্ষ্য করবেন । আমি লক্ষ্য করেছি যে কোনও কারণে ফাইলটির শেষের কাছাকাছি সময়ে .on ('পাঠযোগ্য') ছোট এবং বড় ফাইলগুলিতে দ্বিতীয়বার ডাকা হয়। আমি নিশ্চিত না কেন তবে এটি একই লাইনের আইটেমগুলি পড়ার দ্বিতীয় প্রক্রিয়া থেকে বাধা দেয়।


1

আমি এই সহজটি ব্যবহার করি: https://www.npmjs.com/package/csv-parser

ব্যবহার করা খুব সহজ:

const csv = require('csv-parser')
const fs = require('fs')
const results = [];

fs.createReadStream('./CSVs/Update 20191103C.csv')
  .pipe(csv())
  .on('data', (data) => results.push(data))
  .on('end', () => {
    console.log(results);
    console.log(results[0]['Lowest Selling Price'])
  });

1

আমি ব্যবহার করছিলাম csv-parseতবে বড় ফাইলগুলির জন্য পারফরম্যান্স ইস্যুতে চলছিল আমি যে আরও ভাল লাইব্রেরি পেয়েছি তার মধ্যে একটি হ'ল পাপা পার্স , ডক্স ভাল, ভাল সমর্থন, লাইটওয়েট, কোনও নির্ভরতা নেই।

ইনস্টল করুন papaparse

npm install papaparse

ব্যবহার:

  • async / প্রতীক্ষা
const fs = require('fs');
const Papa = require('papaparse');

const csvFilePath = 'data/test.csv'

// Function to read csv which returns a promise so you can do async / await.

const readCSV = async (filePath) => {
  const csvFile = fs.readFileSync(filePath)
  const csvData = csvFile.toString()  
  return new Promise(resolve => {
    Papa.parse(csvData, {
      header: true,
      transformHeader: header => header.trim(),
      complete: results => {
        console.log('Complete', results.data.length, 'records.'); 
        resolve(results.data);
      }
    });
  });
};

const test = async () => {
  let parsedData = await readCSV(csvFilePath); 
}

test()
  • কলব্যাক
const fs = require('fs');
const Papa = require('papaparse');

const csvFilePath = 'data/test.csv'

const file = fs.createReadStream(csvFilePath);

var csvData=[];
Papa.parse(file, {
  header: true,
  transformHeader: header => header.trim(),
  step: function(result) {
    csvData.push(result.data)
  },
  complete: function(results, file) {
    console.log('Complete', csvData.length, 'records.'); 
  }
});

নোটটি header: trueকনফিগারেশনের একটি বিকল্প, অন্যান্য বিকল্পের জন্য ডক্স দেখুন


0
fs = require('fs');
fs.readFile('FILENAME WITH PATH','utf8', function(err,content){
if(err){
    console.log('error occured ' +JSON.stringify(err));
 }
 console.log('Fileconetent are ' + JSON.stringify(content));
})

0

আপনি CSV-to-json মডিউলটি ব্যবহার করে CSV কে json ফর্ম্যাটে রূপান্তর করতে পারেন এবং তারপরে আপনি সহজেই আপনার প্রোগ্রামে json ফাইল ব্যবহার করতে পারেন


-1

এনপিএম ইনস্টল সিএসভি

নমুনা সিএসভি ফাইল পার্স করার জন্য আপনার একটি সিএসভি ফাইলের দরকার পড়ছে, তাই হয় আপনার কাছে ইতিমধ্যে একটি রয়েছে বা আপনি নীচের পাঠ্যটি অনুলিপি করে একটি নতুন ফাইলে পেস্ট করতে পারেন এবং সেই ফাইলটিকে "mycsv.csv" কল করতে পারেন

ABC, 123, Fudge
532, CWE, ICECREAM
8023, POOP, DOGS
441, CHEESE, CARMEL
221, ABC, HOUSE
1
ABC, 123, Fudge
2
532, CWE, ICECREAM
3
8023, POOP, DOGS
4
441, CHEESE, CARMEL
5
221, ABC, HOUSE

নমুনা কোড পড়া এবং সিএসভি ফাইল পার্সিং

একটি নতুন ফাইল তৈরি করুন এবং এর মধ্যে নিম্নলিখিত কোডটি .োকান। পর্দার আড়ালে কী চলছে তা পড়তে ভুলবেন না।

    var csv = require('csv'); 
    // loads the csv module referenced above.

    var obj = csv(); 
    // gets the csv module to access the required functionality

    function MyCSV(Fone, Ftwo, Fthree) {
        this.FieldOne = Fone;
        this.FieldTwo = Ftwo;
        this.FieldThree = Fthree;
    }; 
    // Define the MyCSV object with parameterized constructor, this will be used for storing the data read from the csv into an array of MyCSV. You will need to define each field as shown above.

    var MyData = []; 
    // MyData array will contain the data from the CSV file and it will be sent to the clients request over HTTP. 

    obj.from.path('../THEPATHINYOURPROJECT/TOTHE/csv_FILE_YOU_WANT_TO_LOAD.csv').to.array(function (data) {
        for (var index = 0; index < data.length; index++) {
            MyData.push(new MyCSV(data[index][0], data[index][1], data[index][2]));
        }
        console.log(MyData);
    });
    //Reads the CSV file from the path you specify, and the data is stored in the array we specified using callback function.  This function iterates through an array and each line from the CSV file will be pushed as a record to another array called MyData , and logs the data into the console to ensure it worked.

var http = require('http');
//Load the http module.

var server = http.createServer(function (req, resp) {
    resp.writeHead(200, { 'content-type': 'application/json' });
    resp.end(JSON.stringify(MyData));
});
// Create a webserver with a request listener callback.  This will write the response header with the content type as json, and end the response by sending the MyData array in JSON format.

server.listen(8080);
// Tells the webserver to listen on port 8080(obviously this may be whatever port you want.)
1
var csv = require('csv'); 
2
// loads the csv module referenced above.
3

4
var obj = csv(); 
5
// gets the csv module to access the required functionality
6

7
function MyCSV(Fone, Ftwo, Fthree) {
8
    this.FieldOne = Fone;
9
    this.FieldTwo = Ftwo;
10
    this.FieldThree = Fthree;
11
}; 
12
// Define the MyCSV object with parameterized constructor, this will be used for storing the data read from the csv into an array of MyCSV. You will need to define each field as shown above.
13

14
var MyData = []; 
15
// MyData array will contain the data from the CSV file and it will be sent to the clients request over HTTP. 
16

17
obj.from.path('../THEPATHINYOURPROJECT/TOTHE/csv_FILE_YOU_WANT_TO_LOAD.csv').to.array(function (data) {
18
    for (var index = 0; index < data.length; index++) {
19
        MyData.push(new MyCSV(data[index][0], data[index][1], data[index][2]));
20
    }
21
    console.log(MyData);
22
});
23
//Reads the CSV file from the path you specify, and the data is stored in the array we specified using callback function.  This function iterates through an array and each line from the CSV file will be pushed as a record to another array called MyData , and logs the data into the console to ensure it worked.
24

25
var http = require('http');
26
//Load the http module.
27

28
var server = http.createServer(function (req, resp) {
29
    resp.writeHead(200, { 'content-type': 'application/json' });
30
    resp.end(JSON.stringify(MyData));
31
});
32
// Create a webserver with a request listener callback.  This will write the response header with the content type as json, and end the response by sending the MyData array in JSON format.
33

34
server.listen(8080);
35
// Tells the webserver to listen on port 8080(obviously this may be whatever port you want.)
Things to be aware of in your app.js code
In lines 7 through 11, we define the function called 'MyCSV' and the field names.

If your CSV file has multiple columns make sure you define this correctly to match your file.

On line 17 we define the location of the CSV file of which we are loading.  Make sure you use the correct path here.

আপনার অ্যাপ্লিকেশন শুরু করুন এবং কার্যকারিতা যাচাই করুন একটি কনসোল খুলুন এবং নিম্নলিখিত কমান্ডটি টাইপ করুন:

নোড অ্যাপ্লিকেশন 1 নোড অ্যাপ্লিকেশন আপনার কনসোলে নিম্নলিখিত আউটপুটটি দেখতে হবে:

[  MYCSV { Fieldone: 'ABC', Fieldtwo: '123', Fieldthree: 'Fudge' },
   MYCSV { Fieldone: '532', Fieldtwo: 'CWE', Fieldthree: 'ICECREAM' },
   MYCSV { Fieldone: '8023', Fieldtwo: 'POOP', Fieldthree: 'DOGS' },
   MYCSV { Fieldone: '441', Fieldtwo: 'CHEESE', Fieldthree: 'CARMEL' },
   MYCSV { Fieldone: '221', Fieldtwo: 'ABC', Fieldthree: 'HOUSE' }, ]

1 [এমওয়াইসিএসভি {ফিল্ডোন: 'এবিসি', ফিল্ডটও: '123', ফিল্ডথ্রি: 'ফড'}, 2 এমওয়াইসিএসভি {ফিল্ডোন: '532', ফিল্ডটো: 'সিডব্লিউই', ফিল্ডথ্রি: 'আইসিক্রিম' AM, 3 এমওয়াইসিএসভি {ফিল্ডোন: '8023', ফিল্ডটো: 'পিওওপি', ফিল্ডথ্রি: 'ডিওজিএস', 4 এমওয়াইসিএসভি {ফিল্ডোন: '441', ফিল্ডটো: 'CHEESE', ফিল্ডথ্রি: 'কার্মেল'}, 5 এমআইসিএসভি {ফিল্ডোন: '221', ফিল্ডটো: 'এবিসি', ফিল্ডথ্রি: 'হাউস'},] এখন আপনার উচিত একটি ওয়েব-ব্রাউজার এবং আপনার সার্ভারে নেভিগেট করা। আপনি এটি JSON ফর্ম্যাটে ডেটা আউটপুট দেখতে হবে।

উপসংহারটি নোড.জেএস এবং এটির সিএসভি মডিউল ব্যবহার করে আমরা সার্ভারে সঞ্চিত ডেটা দ্রুত এবং সহজেই পড়তে এবং ব্যবহার করতে পারি এবং অনুরোধের ভিত্তিতে ক্লায়েন্টের কাছে এটি উপলব্ধ করতে পারি request

আমাদের সাইট ব্যবহার করে, আপনি স্বীকার করেছেন যে আপনি আমাদের কুকি নীতি এবং গোপনীয়তা নীতিটি পড়েছেন এবং বুঝতে পেরেছেন ।
Licensed under cc by-sa 3.0 with attribution required.