کد خبر: 47484
تاریخ انتشار: دوشنبه, 05 تیر 1402 - 10:07

داخلی

»

سخن هفته

نقش پردازش زبان طبیعی در عملکرد چت‌جی‌پی‌تی

منبع : لیزنا
الهه حسینی
نقش پردازش زبان طبیعی در عملکرد چت‌جی‌پی‌تی

لیزنا؛ الهه حسینی، دانش­آموخته دکتری علم اطلاعات و دانش شناسی، مدرس دانشگاه الزهرا (س): پردازش زبان طبیعی (NLP) نقش مهمی در عملکرد چت‌جی‌پی‌تی(ChatGPT) دارد. چت‌جی‌پی‌تی یک ربات گفتگوی هوش مصنوعی است که برای پاسخ دادن به سؤالات کاربران از شبکه‌های عصبی پیشرفته استفاده می‌کند.پردازش زبان طبیعی، شامل مجموعه‌ای از الگوریتم‌ها و تکنیک‌های مختلف است که به سیستم‌های هوش مصنوعی کمک می‌کند تا زبان طبیعی را درک کنند و با آن ارتباط برقرار کنند.NLP می‌تواند به چت‌جی‌پی‌تی کمک کند تا با استفاده از تحلیل ساختار جملات، تحلیل معنای کلمات و تفسیر مفاهیم پاسخ‌های درست و منطقی به سؤالات کاربران ارائه دهد، همچنین، می‌تواند کمک کند که به درستی تشخیص دهد که چه نوع سؤالی پرسیده شده است و برای پاسخ دادن به آن، چه اطلاعاتی لازم است.  به طور کلی، NLP به چت‌جی‌پی‌تی کمک می‌کند تا بهترین پاسخ را برای سؤالات کاربران ارائه دهد و باعث افزایش دقت و کارایی آن شود. قدرت چت‌جی‌پی‌تی توانایی تجزیه پرس‌و‌جوها و تولید پاسخ‌ها و نتایج کاملاً منسجم بر اساس اطلاعات بیشتر مبتنی بر متن در دسترس دیجیتالی جهان است – یعنی حداقل اطلاعاتی که در زمان آموزش قبل از سال 2021 وجود داشته است.

مهمترین الگوریتم پردازش زبان طبیعی در عملکردچت‌جی‌پی‌تی ، الگوریتم تولید زبان طبیعی (Natural Language Generation) است. این الگوریتم به چت‌جی‌پی‌تی کمک می‌کند تا به صورت خودکار پاسخ‌های مناسب و درست را برای سؤالات کاربران تولید کند. این الگوریتم با استفاده از شبکه‌های عصبی پیشرفته و مدل‌های زبانی، جملات و متن‌هایی را تولید می‌کند که طبیعی و منطقی به نظر می‌رسند و با سؤالات کاربران همخوانی دارند. به این ترتیب، چت‌جی‌پی‌تی با استفاده از الگوریتم تولید زبان طبیعی، می‌تواند به بهترین شکل ممکن به سؤالات کاربران پاسخ دهد و تجربه کاربری بهتری را برای آن‌ها فراهم کند.

 چت‌جی‌پی‌تی-4 نماینده‌ی یک پیشرفت عمده در حوزه پردازش زبان طبیعی است.

 این نسخه پیشرفته‌ی مدل زبانی Generative Pretrained Transformer (GPT) توسط OpenAI توسعه داده شده است و برای تولید متن شبیه به انسان با پیش‌بینی کلمه بعدی در جمله بر اساس کلمات قبلی طراحی شده است. این نسخه پیشرفته‌ مدل زبانی از طریق مجموعه‌ای بزرگ از داده‌های متنی از جمله کتاب‌ها، مقالات و صفحات وب آموزش داده شده است . چت‌جی‌پی‌تی -4 با ظرفیت بیش از یک تریلیون پارامتر، یکی از بزرگترین مدل‌های زبان در دسترس است در حالی که نسخه پیشین آن(GPT-3 ) ۱۷۵ میلیارد پارامتر داشته است. این افزایش ظرفیت به این معناست که چت‌جی‌پی‌تی -4 قادر است متن هایی با واقع گرایی و پیچیدگی بیشتر و با دقت بیشتری تولید کند. این مدل قادر به انجام کارهای پیچیده‌تر مانند ترجمه، خلاصه سازی و پاسخ به سوالات است. علاوه بر این، کنترل بهتری روی متن تولید شده دارد و می‌تواند بهترین فهم را نسبت به بافت و منظور متن داشته باشد.

چت‌جی‌پی‌تی -4 همچنین قابلیت‌های پیشرفته‌ای برای درک و تولید متن در زبان‌های مختلف دارد، از جمله زبان‌هایی با منابع کم که به طور معمول کنترل آن برای مدل­های زبانی چالش برانگیز است. این به دلیل فرآیند آموزش پیشرفته ‌با استفاده از مجموعه‌ای گسترده از داده‌های متنی در زبان‌ها و حوزه‌های مختلف است که مرزهای تولید متون توسط هوش مصنوعی را تغییر می دهد. قابلیت درک و تولید متن شبیه به انسان با دقت و پیچیدگی بالا ، از جمله مزیت هایی است که برای ترجمه زبان و ایجاد محتوا بسیار مناسب است.

در ادامه به برخی الگوریتم ها و تکنیک های استفاده شده در چت جی پی تی-۴ به طور مختصر اشاره می­ شود:

پیش آموزش (Pre-Training):

چت‌جی‌پی‌تی نیز همانند کارکرد گوگل دارای دو مرحله جمع آوری داده و استنتاج حاصل از تعامل کاربر است. مرحله جمع آوری داده­ها، پیش­آموزش نامیده می­شود، در حالی که مرحله پاسخگویی و تعامل کاربر، استنتاج نامیده می شود. جادوی پشت هوش مصنوعی مولد و دلیل منفجر شدن ناگهانی آن این است که روش کار پیش‌آموزش بسیار مقیاس‌پذیر است.

به طور کلی، هوش مصنوعی با استفاده از دو رویکرد اصلی تحت نظارت و بدون نظارت پیش‌آموزش می­بیند. برای اکثر پروژه­های هوش مصنوعی تا زمان تولید فعلی سیستم ­ای هوش مصنوعی مولد مانند چت‌جی‌پی‌تی، از رویکرد نظارت شده استفاده می شد.

پیش‌آموزش تحت نظارت، فرآیندی است که در آن یک مدل بر روی یک مجموعه داده برچسب‌گذاری شده آموزش داده می‌شود، جایی که هر ورودی با یک خروجی مربوطه مرتبط است. همانطور که ممکن است تصور کنید، محدودیت‌هایی برای مقیاس‌پذیری وجود دارد. پیش­بینی تمام سوالاتی که همیشه پرسیده می­شود، غیرممکن است، بنابراین واقعاً هیچ راهی وجود ندارد که چت‌جی‌پی‌تی با یک مدل نظارت شده آموزش داده شود. در عوض، چت‌جی‌پی‌تی از پیش آموزش بدون نظارت استفاده می­کند - و این رویکرد، تغییر دهنده اصلی بازی است.

پیش‌آموزش بدون نظارت، فرآیندی است که طی آن یک مدل بر روی داده‌هایی که هیچ خروجی خاصی با هیچ ورودی مشخصی، مرتبط نیست، آموزش داده می‌شود. در عوض، مدل برای یادگیری ساختار و الگوهای اساسی در داده های ورودی بدون هیچ کار خاصی در ذهن آموزش داده شده است. این فرآیند اغلب در کارهای یادگیری بدون نظارت، مانند خوشه­بندی، تشخیص ناهنجاری و کاهش ابعاد استفاده می شود. در زمینه مدل‌سازی زبان، می‌توان از پیش‌آموزش بدون نظارت برای آموزش مدل برای درک نحو و معنای زبان طبیعی استفاده کرد تا بتواند متنی منسجم و معنادار در یک زمینه محاوره‌ای تولید کند. این رویکرد، مدل را آموزش می­دهد تا کلمه بعدی را در یک دنباله متن بر اساس کلمات قبلی پیش­بینی کند. به عبارت دیگر، این فرآیند پیش آموزش، مدل را قادر می سازد تا رابطه های آماری بین کلمات در یک مجموعه بزرگی از متن را یاد بگیرد.

معماری ترانسفورمر (Transformer Architecture):

در سال 2017، مقاله ای نوآورانه با عنوان "Attention Is All You Need" معماری ترانسفورمر را معرفی کرد. معماری ترانسفورمر (تبدیل­کننده) یک معماری شبکه عصبی که برای وظایف پردازش زبان طبیعی طراحی شده است.. یک شبکه عصبی نحوه عملکرد مغز انسان را با پردازش اطلاعات از طریق لایه هایی از گره های به هم پیوسته شبیه­سازی می کند. ترانسفورمر از چندین لایه تشکیل شده است که هر یک دارای چندین لایه فرعی است. دو لایه فرعی اصلی عبارتند از لایه توجه به خود (self-attention)  و لایه پیشخور(Feedforward). لایه توجه به خود اهمیت هر کلمه را در دنباله محاسبه می‌کند، در حالی که لایه پیش‌خور، تبدیل‌های غیرخطی را به داده‌های ورودی اعمال می‌کند. این لایه ها به ترانسفورمر کمک می کند تا روابط بین کلمات را در یک دنباله یادبگیرد و درک کند.

در طول آموزش، داده های ورودی مانند یک جمله به ترانسفورمر داده می شود و از آن خواسته می شود تا بر اساس آن ورودی، پیش­بینی کند. این مدل بر اساس میزان مطابقت پیش­بینی آن با خروجی واقعی به روز می شود. از طریق این فرآیند، ترانسفورمر یاد می گیرد که بافت و روابط بین کلمات را در یک دنباله درک کند، و آن را به ابزاری قدرتمند برای وظایف پردازش زبان طبیعی مانند ترجمه زبان و تولید متن تبدیل می­کند. معماری ترانسفورمر دنباله‌ای از کلمات را با استفاده از مکانیزم «توجه به خود» برای سنجش اهمیت کلمات مختلف در یک دنباله هنگام پیش‌بینی پردازش می‌کند. توجه به خود شبیه روشی است که خواننده ممکن است به یک جمله یا پاراگراف قبلی در بافت مورد نیاز برای درک یک کلمه جدید در کتاب نگاه کند. ترانسفورمر برای درک بافت و روابط بین کلمات به همه کلمات به ترتیب نگاه می کند.

 بنابراین، آنچه معماری ترانسفورمر را از سایر ساختمان های شبکه عصبی متمایز می کند، استفاده از«توجه به خود» است. این تکنیک نوآورانه به مدل اجازه می دهد تا به طور انتخابی به بخش های مختلف دنباله ورودی توجه کند، که باعث بهبود کارایی و اثربخشی آن می شود. با تمرکز بر بخش های مربوطه ورودی، ترانسفورمر می تواند پیش بینی های دقیق­تری تولید کند و نتایج بهتری را به دست آورد.

مکانیزم‌های توجه:
مکانیزم‌های توجه، اجزای کلیدی معماری ترانسفورمر هستند. آن‌ها به مدل اجازه می‌دهند تا هنگام پیش‌بینی بخش‌های خاصی از دنباله ورودی را مورد توجه قرار دهد. چندین نوع مکانیزم توجه وجود دارد، اما آنچه که در معماری ترانسفورمر استفاده می‌شود، با نام «توجه به خود» شناخته می‌شود.در آن، مدل برای هر جایگاه در دنباله ورودی، یک مجموعه وزن توجه را بر اساس اهمیت آن جایگاه برای سایر جایگاه‌های دنباله محاسبه می‌کند. سپس این وزن‌های توجه برای محاسبه مجموعه وزن‌دار حالت‌های پنهان به کار می‌روند که به عنوان ورودی به لایه بعدی مدل استفاده می‌شوند. این فرآیند به ترانسفورمر اجازه می‌دهد تا به طور کارآمد مقادیر بزرگی از داده را پردازش کرده و پیش‌بینی‌های دقیقی ایجاد کند.

این شامل یک رمزگذار (encoder ) و یک رمزگشا (decoder ) است که هر دو شامل چندین لایه از مکانیزم­های «توجه به خود»  هستند. رمزگذار دنباله ورودی را دریافت می کند و یک دنباله از حالت های پنهان تولید می کند، در حالی که رمزگشا حالت های پنهان را دریافت می کند و دنباله خروجی را تولید می کند. مکانیزم «توجه به خود»  به مدل اجازه می دهد که بیشتر بر بخش های خاصی از دنباله ورودی بر اساس ربط آنها با وظیفه در دست تمرکز کند.به عنوان مثال، در ترجمه زبان، مدل می تواند بیشتر به کلمات خاصی در جمله منبع توجه کند که بیشتر به ترجمه یک کلمه خاص در جمله هدف مرتبط باشند.


تنظیم دقیق(Fine-Tuning ):
تنظیم دقیق  فرآیندی است که در آن پارامترهای یک مدل باید به صورت خیلی دقیقی تنظیم شوند تا مدل با مشاهدات مشخصی تناسب پیدا کند. این فرآیند در یادگیری ماشین یک فرایند بسیار متداول است که در آن با اضافه کردن لایه های جدید مدل از پیش آموزش داده شده‌ای، سعی می‌شود که پارامتر های آن مدل حاصل به گونه ای تنظیم شود که دقت مدل روی یک مجموعه داده جدید نیز بالا رود.

 پس از پیش‌آموزش، چت‌جی‌پی‌تی -4  به تنظیم دقیق و نهایی روی وظایف خاصی مانند پاسخگویی به سوال یا تکمیل متن می‌پردازد. تنظیم دقیق شامل آموزش مدل در یک مجموعه داده کوچک و خاص به وظیفه در دست است. به عنوان مثال، در پاسخگویی به سوال، مدل بر روی یک مجموعه داده سوال و پاسخ آموزش داده می‌شود و وزن‌ها و سوگیری­های آن برای بهینه‌سازی عملکردش در این وظیفه تنظیم می‌شود.

جستجوی پرتو (Beam Search ):
چت‌جی‌پی‌تی-۴  یک مدل زبان پیشرفته است که از الگوریتم‌های پیشرفته برای تولید پاسخ‌های منسجم و متنوع استفاده می‌کند. یکی از تکنیک‌های کلیدی، جستجوی پرتومحلی است که شامل بررسی چندین گزینه در هر مرحله برای انتخاب محتمل‌ترین دنباله کلمات برای پاسخ است. مدل برای هر گزینه یک امتیاز محاسبه می‌کند و گزینه‌ای را که بیشترین احتمال را دارد، انتخاب می‌کند.مدل زبانی، یک وظیفه مهم در پردازش زبان طبیعی است. این شامل پیش‌بینی احتمال دنباله‌ای از کلمات، با توجه به کلمات قبلی است. در مورد چت‌جی‌پی‌تی-۴، مدل برای پیش‌بینی احتمال کلمه بعدی در یک دنباله، آموزش داده می‌شود. این کار با استفاده از تکنیک برآورد درست‌نمایی بیشینه (maximum likelihood estimation (MLE))  صورت می‌گیرد که منفی لگاریتم درست‌نمایی کلمه بعدی صحیح با توجه به کلمات قبلی را به حداقل می رساند.

نمونه­ گیری بالاترین پی ( Top-p Sampling):


علاوه بر جستجوی پرتو، چت‌جی‌پی‌تی-۴ از نمونه­گیری بالاترین-پی استفاده می‌کند تا پاسخ‌های متنوعی تولید کند. این تکنیک، کلمات را به صورت تصادفی از گزینه‌های پراحتمال به منظور جلوگیری از پاسخ‌های تکراری یا عمومی براساس یک آستانه احتمال انتخاب می‌کند. به عنوان مثال، در صورت پرسیدن درباره رنگ مورد علاقه، چت‌جی‌پی‌تی-۴ ممکن است به صورت تصادفی کلماتی مانند آبی، قرمز یا سبز را از گزینه‌های پراحتمال براساس آستانه احتمال انتخاب کند.به طور کلی، الگوریتم‌های چت‌جی‌پی‌تی-۴ بر اساس آخرین تحقیقات در پردازش زبان طبیعی و یادگیری عمیق بنیانگذاری شده‌اند و به طور مداوم در حال بهبود عملکرد مدل در گستره‌ای از وظایف هستند.

یادگیری انتقالی (Transfer Learning ):

یادگیری انتقالی ، یک تکنیک قدرتمند است که شامل پیش‌آموزش مدل بر روی یک مجموعه داده عمومی و بزرگ و سپس تنظیم دقیق آن بر روی یک مجموعه داده کوچکتر و خاصتر است. این رویکرد در زمینه پردازش زبان طبیعی به طور گسترده‌ای پذیرفته شده و ثابت شده است که در بهبود دقت و کارایی مدل‌های زبانی بسیار موثر است.در مورد نسخه سوم چت‌جی‌پی‌تی ، مدل بر روی یک مجموعه بزرگ از داده‌های متنی با استفاده از یک تکنیک پیش‌آموزش بدون ناظر آموزش دیده است. در طول پیش‌آموزش، مدل یاد می‌گیرد که بهترین پاسخ برای کلمات از دست رفته در دنباله ورودی را پیش­بینی کند، که به آن کمک می‌کند تا یک نمایش غنی از ساختار اساسی زبان طبیعی را یاد بگیرد. پس از پایان پیش‌آموزش، مدل می‌تواند بر روی وظایف خاص، مانند پاسخ به سوالات یا طبقه‌بندی متن، تنظیم دقیق شود.

مدیریت گفتگو: (Dialogue management)

ممکن است چت‌جی‌پی‌تی  سؤالاتی بپرسد تا هدف شما را از پرسش روشن کند یا نیازهای شما را بهتر درک کند و پاسخ‌های شخصی‌سازی شده را ارائه دهد که کل تاریخچه مکالمه را در نظر بگیرد. اینگونه است که چت‌جی‌پی‌تی می تواند مکالمات چند نوبتی را با کاربران به روشی طبیعی و جذاب داشته باشد. این شامل استفاده از الگوریتم ها و تکنیک های یادگیری ماشین برای درک زمینه یک مکالمه و حفظ آن در مبادلات چندگانه با کاربر است.

مدیریت گفتگو یکی از جنبه‌های مهم پردازش زبان طبیعی است؛ زیرا به برنامه‌های رایانه‌ای اجازه می‌دهد تا با افراد به گونه‌ای تعامل داشته باشند که بیشتر شبیه یک مکالمه باشد. این رویکرد می تواند به ایجاد اعتماد و تعامل با کاربران کمک کند و در نهایت منجر به نتایج بهتری برای کاربر شود.

مشارکت انسانی در پیش آموزش:

یکی از چالش های کلیدی در اجرایNLP، مقابله با پیچیدگی و ابهام زبان انسان است. الگوریتم‌های پردازش زبان طبیعی باید روی مقادیر زیادی داده آموزش ببینند تا الگوها را بشناسند و تفاوت‌های ظریف زبان را بیاموزند. آنها همچنین باید به طور مداوم اصلاح و به روز شوند تا با تغییرات استفاده از زبان وبافت هماهنگی داشته باشند.این فناوری با تجزیه ورودی­های زبان، مانند جملات یا پاراگراف­ها، به اجزای کوچکتر و تجزیه و تحلیل معانی و روابط آنها برای ایجاد بینش یا پاسخ کار می­کند. فن‌آوری‌های NLP از ترکیبی از تکنیک‌ها، از جمله مدل‌سازی آماری، یادگیری ماشینی، و یادگیری عمیق استفاده می‌کنند تا الگوها را بشناسند و از مقادیر زیادی داده یاد بگیرند تا به طور دقیق تفسیر و تولید کنند.

علی‌رغم مقیاس‌پذیری ذاتی پیش‌آموزش بدون نظارت، شواهدی وجود دارد که کمک‌های انسانی ممکن است در آماده‌سازی چت‌جی‌پی‌تی برای استفاده عمومی نقش داشته باشد.

مقاله ­ای در Martechpost، یک خبرنامه هوش مصنوعی منتشر شده است، بیان می‌کند که مدل زبانی بزرگ با استفاده از فرآیندی به نام یادگیری تقویتی از بازخورد انسانی  Reinforcement Learning from Human Feedback (RLHF) آموزش داده شده است. بر اساس این مقاله، "فرایند آموزش شامل یک مدل اولیه تنظیم شده با استفاده از یادگیری نظارت شده است، با مربیان انسانی که هم نقش کاربر و هم یک دستیار هوش مصنوعی را بازی می کنند."

در اینجا نکات ظریفی وجود دارد، وقتی صحبت از معنای کلمه «آموزش» می شود. به گفته خود چت‌جی‌پی‌تی، " از یادگیری تقویتی با بازخورد انسانی برای آموزش من استفاده نشده است. در عوض، من با استفاده از ترکیبی از تکنیک های یادگیری بدون نظارت و با نظارت، مانند مدل سازی زبان، رمزگذاری خودکار، و پیش بینی توالی، از قبل آموزش دیدم. آموزش شامل پردازش حجم عظیمی از داده های متنی از اینترنت بود که به من امکان داد الگوها و روابط بین کلمات و عبارات را بیاموزم." اما تصریح کرده است: "با این حال، زمانی که من از قبل آموزش دیدم، محققان و توسعه­دهندگان می­توانند از یادگیری تقویتی با بازخورد انسانی برای تنظیم دقیق من برای وظایف یا حوزه­های خاص، مانند پاسخ دادن به سوالات یا تولید متن استفاده کنند. در این موارد، انسان­ها می توانند بازخورد  خود را در قالب پاداش یا جریمه ارائه دهند­، که می تواند برای به روز رسانی پارامترهای من و بهبود عملکرد من در کارهای مشابه در آینده استفاده شود."

مجموعه داده های آموزشی چت‌جی‌پی‌تی:

چت‌جی‌پی‌تی -3 بر روی مجموعه داده ای به نام WebText2 حاوی کتابخانه ای با بیش از 45 ترابایت داده متنی آموزش داده شده است. OpenAI توسعه دهنده چت‌جی‌پی‌تی مجموعه داده ای به نام Persona-Chat منتشر کرده است که به طور خاص برای آموزش مدل­های هوش مصنوعی محاوره­ای مانند چت‌جی‌پی‌تی طراحی شده است. این مجموعه داده شامل بیش از 160000 دیالوگ بین دو شرکت­کننده انسانی است که به هر شرکت­کننده یک شخصیت منحصر به فرد اختصاص داده شده است که پیشینه، علایق و شخصیت آن­ها را توصیف می­کند. این به چت‌جی‌پی‌تی اجازه می‌دهد تا نحوه ایجاد پاسخ‌هایی را که شخصی‌سازی شده و مرتبط با زمینه خاص مکالمه هستند، بیاموزد .علاوه برPersona-Chat، بسیاری از مجموعه داده‌های مکالمه دیگر وجود دارد که برای تنظیم دقیق چت‌جی‌پی‌تی استفاده می‌شود. در ادامه چند نمونه ذکر می­شوند.

Cornell Movie Dialogs Corpus  : مجموعه داده ای حاوی مکالمات بین شخصیت­ها در فیلمنامه­های فیلم است. این شامل بیش از 200000 تبادل مکالمه بین بیش از 10000 جفت شخصیت فیلم است که طیف متنوعی از موضوعات و ژانرها را پوشش می­دهد.

Ubuntu Dialogue Corpus  : مجموعه ای از گفتگوهای چند نوبتی بین کاربرانی که به دنبال پشتیبانی فنی هستند و تیم پشتیبانی انجمن اوبونتو است. این مجموعه شامل بیش از 1 میلیون دیالوگ است که آن را به یکی از بزرگترین مجموعه داده­های عمومی در دسترس برای تحقیق در مورد سیستم­های گفتگو تبدیل می­کند.

DailyDialog : مجموعه ای شامل گفتگوهای انسان به انسان در موضوعات مختلف، از گفتگوهای زندگی روزمره تا بحث در مورد مسائل اجتماعی است. هر دیالوگ در مجموعه داده از چندین نوبت تشکیل شده است و با مجموعه ای از اطلاعات احساسات، احساسات و موضوع برچسب گذاری شده است.

The Common Crawl corpus: مجموعه Common Crawl حاوی چند پتابایت داده است که طی 12 سال خزیدن وب جمع آوری شده است. مجموعه شامل داده های خام صفحه وب، استخراج فراداده­ها و متن است. داده‌های Common Crawl در مجموعه داده‌های عمومی خدمات وب آمازون و در چندین پلتفرم ابری دانشگاهی در سراسر جهان ذخیره می‌شوند.

BookCorpus dataset: مجموعه بزرگی از کتاب های رمان رایگان نوشته شده توسط نویسندگان منتشر نشده است که شامل 11038 کتاب (حدود 74 میلیون جمله و 1گیگ کلمه) از 16 زیرژانر مختلف است.

OpenWebText: این مجموعه شامل 6 بیلیون توکن متن از منابع مختلف وب مانند Reddit، StackExchange و دیگر انجمن هاست.

English Gigaword: این مجموعه شامل متون اخبار از منابع مختلف خبری مانند رویترز است.

علاوه بر این مجموعه داده ها، چت‌جی‌پی‌تی بر روی حجم زیادی از داده­های ساختارنیافته در اینترنت، از جمله وب سایت­ها، کتاب­ها و سایر منابع متنی آموزش دیده است. این روش به چت‌جی‌پی‌تی اجازه داد تا در مورد ساختار و الگوهای زبان در معنای کلی بیاموزد، که سپس می تواند برای برنامه­های خاص مانند مدیریت گفتگو یا تجزیه و تحلیل احساسات به طور دقیق تنظیم شود.

نتیجه­ گیری:

با چنین تحولات چشمگیری در این حوزه، می‌توان انتظار داشت که مدل‌های پیشرفته‌تری با استفاده از این رویکردها و الگوریتم­ها، و تکنیک‌های یادگیری عمیق، و شبکه­های عصبی ساخته شوند. آینده این حوزه با تمرکز بر توسعه مدل­های بزرگ زبانی امیدبخش وقابل پیش­بینی است که می­تواند مرزهای قابل دست‌یابی در پردازش زبان طبیعی را بیشتر گسترش دهد. امید است که بر محدودیت­ها و چالش­هایی مانند عدم درک ربات­های گفتگو از بافت و دانش پس­زمینه متن تولید شده در نسخه­های آتی با تمرکز بر رویکرد­های هوش مصنوعی معنایی، استدلال معنایی، و گراف­های دانش غلبه شود.

حسینی، الهه. « نقش پردازش زبان طبیعی در عملکرد چت‌جی‌پی‌تی». سخن هفته لیزنا، شماره 648،   5تیرماه ۱۴۰۲.

 


منابع:

Bossi, Emerson (2023). How ChatGPT is revolutionizing the field of NLP and creating new opportunities. Available at:   https://ideamaker.agency/custom-software-development/revolution-in-nlp-with-chatgpt/

Gewirtz, David (2023). How does ChatGPT work? Available at: https://www.zdnet.com/article/how-does-chatgpt-work/

Hutanu , Alexandru (2023). How ChatGPT works and AI, ML & NLP Fundamentals. Available at:  https://www.pentalog.com/blog/tech-trends/chatgpt-fundamentals/

Majumder, Eeman (2022). ChatGPT-what is it and how does it work exactly? Available at: https://medium.com/geekculture/chatgpt-what-is-it-and-how-does-it-work-exactly-62e7010524d3

Singh, Meherban (2023). Chat GPT-4 : Algorithms & Techniques. Available at: https://medium.com/ekusimmudreams/chat-gpt-4-algorithms-techniques-da9ec7ce010d