ChatGPT এর GPT কি?

GPT এর পূর্ণরূপ- Generative Pre-trained Transformer। GPT হলো OpenAI এর তৈরি ল্যাংগুয়েজ মডেলসমূহ যেগুলো বিশাল টেক্সট কর্পাসের(যেকোনো ভাষার টেক্সটের এক বিশাল রিসোর্স) ওপর প্রশিক্ষণপ্রাপ্ত হয়ে মানুষের মতো কন্টেক্সট অনুযায়ী লেখনী তৈরি করতে পারে। এগুলো টেক্সট জেনারেট, ভাষা অনুবাদ ও ডেটা ফিল্টারিংয়ে সূক্ষ্ণ টিউন (Fine tune) করতে পারে। “Pre-training” বলতে বোঝায় সেই প্রাথমিক প্রশিক্ষণ প্রক্রিয়াকে যার মাধ্যমে কোনো কন্টেক্সট এর পরবর্তী শব্দ কি হবে তা বাছাই করতে পারা যায়।

GPT ভার্সনসমূহ

ChatGPT এর GPT কি?


মডেল নাম

প্যারামিটার

প্রশিক্ষণ ডেটা

প্রকাশকাল

GPT-1

১১৭ মিলিয়ন

বুক কর্পাস: ইন্টারনেটের রয়েছে এমন  ১১০০০ অপ্রকাশিত সৃজনশীল কর্মকান্ডের বিভিন্ন ক্যাটাগরির( সাহিত্য, বিনোদন) বইয়ের মধ্যে ৭০০০ বইয়ের মতো টেক্সট সমৃদ্ধ ও ৪.৫GB টেক্সট সমৃদ্ধ।

১১ জুন, ২০১৮

GPT-2

১.৫ বিলিয়ন

ওয়েবটেক্সট:

৪০GB টেক্সট সমৃদ্ধ, ৮ মিলিয়ন ডকুমেন্ট সমৃদ্ধ যা ৪৫মিলিয়ন Reddit এর ওয়েবপেইজ থেকে নেয়া

১৪ ফেব্রুয়ারি, ২০১৯

GPT-3

১৭৫ বিলিয়ন

৫৭০ GB প্লেইনটেক্সট সমৃদ্ধ, ০.৪ ট্রিলিয়ন টোকেন, ইংরেজি Wikipedia এর তথ্য সমূহ

১১ জুন, ২০২০

GPT-3.5

১.৩ বিলিয়ন, ৬ বিলিয়ন এবং ১৭৫ বিলিয়ন

GPT-3 ও কোডেক্স(Codex- OpenAI এর কৃত্রিম বুদ্ধিমত্তার এক মডেল যা কোড বুঝতে পারে ও কোড জেনারেট করতে পারে) এর নতুন ভার্সন

১৪ জানুয়ারি, ২০২২

ChatGPT

 

৪৫TB টেক্সট সমৃদ্ধ

৩০ নভেম্বর, ২০২২

GPT-4

১০০ ট্রিলিয়ন

 

১৪ মার্চ, ২০২৩

Next Post Previous Post
No Comment
Add Comment
comment url