ChatGPT এর GPT কি?
GPT এর পূর্ণরূপ- Generative Pre-trained Transformer। GPT হলো OpenAI এর তৈরি ল্যাংগুয়েজ মডেলসমূহ যেগুলো বিশাল টেক্সট কর্পাসের(যেকোনো ভাষার টেক্সটের এক বিশাল রিসোর্স) ওপর প্রশিক্ষণপ্রাপ্ত হয়ে মানুষের মতো কন্টেক্সট অনুযায়ী লেখনী তৈরি করতে পারে। এগুলো টেক্সট জেনারেট, ভাষা অনুবাদ ও ডেটা ফিল্টারিংয়ে সূক্ষ্ণ টিউন (Fine tune) করতে পারে। “Pre-training” বলতে বোঝায় সেই প্রাথমিক প্রশিক্ষণ প্রক্রিয়াকে যার মাধ্যমে কোনো কন্টেক্সট এর পরবর্তী শব্দ কি হবে তা বাছাই করতে পারা যায়।
GPT ভার্সনসমূহ
মডেল
নাম |
প্যারামিটার |
প্রশিক্ষণ
ডেটা |
প্রকাশকাল |
GPT-1 |
১১৭ মিলিয়ন |
বুক কর্পাস: ইন্টারনেটের রয়েছে এমন
১১০০০ অপ্রকাশিত সৃজনশীল কর্মকান্ডের বিভিন্ন
ক্যাটাগরির( সাহিত্য, বিনোদন) বইয়ের মধ্যে ৭০০০ বইয়ের মতো টেক্সট সমৃদ্ধ ও ৪.৫GB
টেক্সট সমৃদ্ধ। |
১১ জুন, ২০১৮ |
GPT-2 |
১.৫ বিলিয়ন |
ওয়েবটেক্সট: ৪০GB টেক্সট সমৃদ্ধ, ৮ মিলিয়ন ডকুমেন্ট
সমৃদ্ধ যা ৪৫মিলিয়ন Reddit এর ওয়েবপেইজ থেকে নেয়া |
১৪ ফেব্রুয়ারি, ২০১৯ |
GPT-3 |
১৭৫ বিলিয়ন |
৫৭০ GB প্লেইনটেক্সট সমৃদ্ধ, ০.৪
ট্রিলিয়ন টোকেন, ইংরেজি Wikipedia এর তথ্য সমূহ |
১১ জুন, ২০২০ |
GPT-3.5 |
১.৩ বিলিয়ন, ৬ বিলিয়ন এবং ১৭৫ বিলিয়ন |
GPT-3 ও কোডেক্স(Codex- OpenAI এর
কৃত্রিম বুদ্ধিমত্তার এক মডেল যা কোড বুঝতে পারে ও কোড জেনারেট করতে পারে) এর নতুন
ভার্সন |
১৪ জানুয়ারি, ২০২২ |
|
৪৫TB টেক্সট সমৃদ্ধ |
৩০ নভেম্বর, ২০২২ |
|
GPT-4 |
১০০ ট্রিলিয়ন |
|
১৪ মার্চ, ২০২৩ |