الرئيسية / مواقع وبرامج / الكشف رسمياً عن نموذج GPT-4 مع إمكانية تحليل الصور، وشرح الميمز!

الكشف رسمياً عن نموذج GPT-4 مع إمكانية تحليل الصور، وشرح الميمز!

أعلنت OpenAI رسمياً عن منتجها الأكثر تطوراً حتى الآن، نموذج GPT-4 والذي جاء الكشف عنه ليحقق تصريح مايكروسوفت بشكل جزئي، حيث وعدت الشركة بقدوم النموذج الجديد في أسبوع وهو ما حدث بالفعل، وأكدت كذلك أنه سيكون قادراً على تحليل وإنشاء مقاطع الفيديو، والذي لم تعلن عنه OpenAI ضمن الخصائص الجديده لنموذجها الجديد. سنناقش عزيزي القاري في هذا المقال ما هو GPT-4؟ وما هي قدراته؟ بعد الإعلان الرسمي عنه. فأبقوا معنا!
ما الجديد في GPT-4؟

بشكل عام، لا يأتي نموذج GPT-4 ليكون ثورياً بالشكل الذي خٌيّل لن من التسريبات، حيث أوضحت الشركة أنه “أكثر إبداعًا وتعاونًا من أي وقت مضى” مع إمكانية حل المشاكل الصعبة “بدقة أكبر”. استمرت OpenAI في التحذير كذلك من إحتمالية “هلوسة” النموذج الجديد وسرد معلومات خاطئة، أو إنشاء نص عنيف، وعلى الرغم من أن الشركة لم تؤكد إشاعة وجود 100 تريليون معامل للتعلم الآلي في نموذج GPT-4 ليكون أقوى 500 مرة من نموذج GPT-3، إلا أنها اكتفت بالإعلان عن أشياء مثل زيادة الحد الأقصى للكلمات في النموذج الجديد ليصبح 25,000 كلمة بدلاً من 3,000 في النموذج السابق، بالإضافة إلى زيادة قدرته على إختيار الكلمات المناسبة وتنوعها.

ولعل الإضافة الأهم في نموذج GPT-4 هو القدرة على إدخال صور للنموذج وطلب تحليلها، وذلك لأنه نموذج “متعدد الوسائط” كما أشارت التسريبات سابقاً؛ ولكن كانت تحلل التسريبات ذلك الأمر على أنه سيكون قادراً على إنشاء الصور بشكل مباشر من خلال الدردشة، لكنه أمر غير صحيح بالنسبة للتحديث الحالي، ورغم ذلك قد يتم إضافته في تحديثات قادمة، ومع ذلك، يبدو تحليل الصور أمراً واعداً، حيث أنه أصبح الآن قادراً على رؤية وتحليل الصور!
قدرة GPT-4 على التحليل:

لـ GPT-4 القدرة على تحليل الصور، حيث أصبح بإمكان المستخدم الآن إدخال أي مسألة رياضية لنموذج GPT-4 وطلب منه أن يجد المتغير𝑥 أو حساب مساحة المثلث، أما إذا كنت ترغب في شئ أكثر إبهاراً من ذلك فيمكن لنموذج OpenAI أن يخبرك بالشئ الغريب أو المضحك في الصورة، أو حتى شرح الميمز، وبالتالي لن تحتاج إلى كتابة التعليق الشهير “حتى الضحك صعبتوه علينا”، عندما تجد ميم لا تفهموا وترغب في شرح له، فقط توجه لروبوت الدردشة الجديد في هدوء!

ما الشيء الخارق حول النموذج الجديد GPT-4؟

بجانب ذلك، لا يوجد الكثير لنتحدث عنه في نموذج GPT-4، وهو الأمر الذي حذر منه المدير التنفيذي لشركة OpenAI عندما قال أن “الناس يتوسلون ليصابوا بخيبة أمل وسيحصلوا على ذلك”، ووفقاً للمدونة البحثية التي نشرت للنموذج اللغوي الجديد، ففي المحادثات الفردية مع النموذج الجديد، سنلاحظ فروقات طفيفة مقارنة بروبوت ChatGPT المبني على نموذج GPT-3.5.

أوضحت المدونة البحثية أيضاً أن الإختلاف الحقيقي بين النموذج الجديد والسابق يظهر عنما يواجه مهمة معقدة تتجاوز حدود النموذج السابق؛ فبالتالي نتوقع أن يكون نموذج GPT-4 أقل عرضة للإجابة الخاطئة أو الاستسلام للأسئلة التي تتحدى قدراته عن النموذج السابق، ولتوضيح ذلك أضافت الشركة نتائج عدد من الاختبارات التي قام كلا النموذجين بتأديتها، نتحدث هنا عن اختبارات صعبة كامتحان نقابة المحامين وبرنامج التقييم الذاتي للمعرفة الطبية. وتأتي النتائج لتكون في صالح GPT-4 بفارق ملحوظ، ففي الاختبار الأول حصل النموذج الجديد على 298  من أصل 400 نقطة، بينما حقق النموذج السابق 213  نقطة فقط.

بجانب ذلك، ركزت OpenAI على ضبط المعيار الأخلاقي لنموذج GPT-4، وحسب التصريحات الرسمية، مر النموذج الجديد بستة أشهر من “تدريبات السلامة”، ووفقاً للتدريبات الداخلية، كان أقل عرضة بنسبة 82% للإجابة عن أسئلة لطلبات المحتوى غير المسموح به، و 40% أكثر احتمالية لتقديم حقائق، وعلى الرغم من تلك الأرقام المثيرة للإنتباه، مازال يحذر المدير التنفيذي للشركة، حيث غرد أن “النموذج اللغوي مازال معيوباً، ومحدوداً ولا يزال يبدو أكثر إثارة للإعجاب عند استخدامه لأول مرة مما هو عليه بعد قضاء المزيد من الوقت معه”.
ما سيسهم فيه GPT-4 وتأثيراته على أرض الواقع:

الملفت للإهتمام أيضأً أن الشركة أعلنت عن تعاونات بالفعل مع شركات أخرى لدمج GPT-4 في عدد من المنتجات بشكل ملائم لها، فمثلا التطبيق الشهيرلتعلم اللغات دولينجو سيستفيد من قدرات النموذج اللغوي الجديد لإنشاء محادثات مستمرة لممارسة اللغة المراد تعلمها، كذلك تحليل المحتوى المرئي لنصي في تطبيق “Be My Eyes” المخصص لكفيفي البصر، وكذلك سيستفيد موقع Khan Academy من النموذج الجديد ليكون أشبه بمدرس يلمح لك بإجابة السؤال ويشجعك على التفكير، بدلاً من الحصول على الإجابة بشكل مباشر، ستتمكن من التحدث معه طبعاً في نافذة دردشة لجعل التجربة أكثر محاكاة.
كيفية تجربة GPT-4:

أوضحت OpenAI أن النموذج الجديد متاح بالفعل لمشتركي الخدمة المدفوعة من ChatGPT (تكلف 20$ شهرياً)، كذلك سيضاف إلى محرك بحث Bing، بجانب إتاحته قريباً للمطورين للإستفادة منه في تطبيقاتهم المختلفة. وللأسف، مازلت الشركة لا تهتم بتوفير منتجاتها داخل البلاد العربية حتى الآن.

ما رأيك في الإمكانيات التي يأتي بها نموذج GPT-4، هل خاب ظنك بسبب التسريبات التي أقنعتنا بنقلة جذرية؟ أم انبهرت بالقدرة على تحليل الصور وشرح الميمز؟وفي النهاية نرجو أن نكون قد وضحنا لك عزيزي القارئ ما هو GPT-4؟ وما هي قدراته الجديدة؟ شاركنا التعليقات!

عرب هاردوير