نموذج o1 – preview من OpenAI | هل اقتربنا من الذكاء الاصطناعي العام؟
شهد عام 2023 اضطرابات كبيرة في شركة OpenAI الرائدة للذكاء الاصطناعي؛ إذ نشأ خلاف جوهري بين الرئيس التنفيذي الحالي للشركة، سام ألتمان، ولجنة السلامة الفائقة المسؤولة عن سلامة الذكاء الاصطناعي، وبعض أعضاء مجلس الإدارة. كان محور هذا الخلاف حول الوتيرة السريعة في تطوير الذكاء الاصطناعي التي يطمح ألتمان إليها؛ إذ يُعد تسويق التقدم التكنولوجي قبل فهم عواقبه أمرًا خطيرًا.
وفقًا لتقرير نشرته رويتر؛ كان ألتمان قد بدأ بالفعل في مشروع أُطلق عليه Q* (Q – Star). أثار هذا المشروع اهتمامًا كبيرًا داخل أروقة الشركة؛ إذ اعتقد بعض العاملين في OpenAI أن ذلك المشروع قد يكون بمثابة طفرة في سعي الشركة نحو ما يعرف بالذكاء الاصطناعي العام (AGI). وتُعرف OpenAI الذكاء الاصطناعي العام بأنه مجموعة من الأنظمة المستقلة القادرة التي يمكنها التفوق على البشر في غالبية المهام ذات القيمة الاقتصادية.
قد يهمك أيضًا:
وفي يوليو 2024؛ كشفت رويترز عن تقرير جديد يتحدث عن مشروع سري أيضًا في OpenAI يُعرف باسم Strawberry (فراولة). ووفقًا للتقرير، يهدف مشروع Strawberry إلى تطوير ذكاء اصطناعي قادر على التخطيط المسبق للتنقل عبر الإنترنت بشكلٍ مستقل وموثوق. ليتمكن الذكاء الاصطناعي بذلك من إجراء ما تسميه OpenAI البحث العميق (Deep Research).
بعد مرور أقل من شهرين على نشر تقرير رويترز؛ أعلنت OpenAI عن إطلاق سلسلة جديدة من النماذج تحت اسم OpenAI o1 – preview. تتميز هذه النماذج الجديدة بقدرات متقدمة تجعلها قادرة على “التفكير المنطقي” في حل المشاكل والتعلم الذاتي؛ وجزء من ذلك التعلم هو قدرتها على تحديد أخطائها وتصحيحها والتعلم منها!
في أعقاب هذه الإعلانات، ظهرت نظريات وتكهنات في أوساط المهتمين بمجال الذكاء الاصطناعي. بأن المشاريع السرية المختلفة التي كُشف عنها، بما في ذلك “*Q” و”Strawberry” و”OpenAI o1″، قد تكون في الواقع أجزاء مختلفة أو مراحل متتالية لمشروع واحد كبير، وهو “OpenAI o1”.
كيف تعمل سلسلة o1 الجديدة؟
طورت شركة OpenAI السلسلة الجديدة المُكونة من o1 – preview وo1 – mini لتقضي وقتًا أطول للتفكير قبل الرد؛ إذ يمكن لتلك النماذج أن تفكر في المهام المعقدة وحل مشاكل صعبة في مجالات العلوم والبرمجة والرياضيات. في النماذج السابقة كانت نماذج الذكاء الاصطناعي تعاني.
قبل بضعة أشهر، غيرت خان أكاديمي التعليمية الشهيرة برنامجها التعليمي المدعوم بالذكاء الاصطناعي الخاص بالرياضيات؛ إذ تُرسل المسائل إلى برنامج آلة حاسبة بدلًا من الذكاء الاصطناعي نظرًا لصعوبتها والأخطاء الواردة بسبب ذلك. لكن عندما أجرت OpenAI اختبار التأهل لأولمبياد الرياضيات الدولي (IMO) لنموذج o1-preview؛ استطاع حل 83% من المسائل في مقابل 13% فقط لـGPT – 4o، ووصلت النسبة المئوية في مسابقات Codeforces إلى 89%.
وبالنسبة للعلوم فقد أظهر نموذج o1-preview أداءً مشابهًا لطلاب الدكتوراه في مهام مرجعية صعبة في الفيزياء والكيمياء وعلم الأحياء؛ كما تفوق في الرياضيات والبرمجة. السلسلة الجديدة موجهه خصيصًا للمشاكل المعقدة؛ فعلى سبيل المثال يمكن للباحثين استخدام النموذج في مجال الرعاية الصحية لتوضيح بيانات تسلسل الخلايا (cell sequencing data). كما يمكن استخدامه من قِبل الفيزيائيين لتوليد صيغ رياضية مُعقدة لفيزياء الكم، وكذلك في جميع المجالات لبناء وتنفيذ سير عمل متعدد الخطوات.
وضعت OpenAI العديد من تجارب العلماء وحاملي شهادة الدكتوراة في شتى المجالات العلمية مع النموذج على موقعها الإلكتروني.
ومع ذلك، فإن “o1” لا يقدم أداءً جيدًا في المعرفة الواقعية حول العالم، ويستغرق وقتًا أطول في الرد من GPT – 4o؛ إذ اختبرت OpenAI نماذج o1 – preview وo1 – mini وGPT – 4o من خلال طرح سؤال عام في نفس الوقت؛ ونص السؤال على «أخبرني بأسامي خمس بلدان يأتي ترتيب حرف الـA في الترتيب الثالث». واستغرق نموذج o1 – preview 32 ثانية فيما تمكن GPT – 4o من الإجابة في 3 ثواني فقط.
وأشارت الشركة أيضًا أن سلسلة OpenAI o1 لا تستطيع بعد تصفح الويب للحصول على المعلومات أو تحميل الصور والملفات. لذا؛ سيكون نموذج GPT – 4o أكثر قدرة في الاستخدامات الشائعة على المدى القريب، ولن تتوقف الشركة عن تطويره لأنه موجه لاستخدامات مختلفة عن o1.
خضعت السلسلة أيضًا لتقييم تفضيلات البشر؛ إذ طلبت الشركة من المقيمين البشر مقارنة النموذجين مع GPT – 4o باستخدام أوامر صعبة ومفتوحة حتى يكون بها مجال كبير للتفكير. وفضل المقيمين o1 في المجالات التي تعتمد بشكلٍ كبير على الاستدلال ولكن فُضل GPT – 4o في المجالات التي تركز على اللغة.
هل يمكن أن تقع النماذج الجديدة في فخ الاستدراج
تحدثت OpenAI بشكلٍ كبير بشأن سلامة سلسلة OpenAI o1 وأكدت أن إجراءات السلامة هي جزء من تطوير الذكاء الاصطناعي؛ إذ توصلت الشركة إلى نهج جديد يُدرب النماذج على الاستفادة من قدرتها على التفكير لحثها على الالتزام بإشارادات السلامة(safety and alignment guidelines) .
كانت إحدى المشاكل الخطيرة التي تواجه GPT – 4o خلال الفترة الماضية؛ هي قدرة بعض المحترفين على كسر قيود السلامة التي بُرمجت داخل النموذج والتي تُعرف بـ «الهروب من السجن – jailbreaking». وفي آخر حادث؛ تمكن أحد المُخترقين من كسر قيود GPT – 4o ليخبر المُخترق عن كيفية صنع قنبلة! وقال خبير في المتفجرات، بعد مراجعة رد النموذج، إن التعليمات الناتجة يمكن استخدامها لصنع منتج قابل للتفجير وكانت حساسة جدًا لدرجة أنه من الخطر نشرها.
إحدى الطرق التي نقيس بها السلامة هي اختبار مدى التزام النموذج بقواعد السلامة الخاصة به إذا حاول المستخدم تجاوزها (المعروف بـ “الهروب من السجن” أو “jailbreaking”). في أحد أصعب اختبارات الهروب من السجن لدينا، حصل نموذج GPT-4o على درجة 22 (على مقياس من 0 إلى 100)، بينما حصل نموذج o1-preview على درجة 84. يمكنك قراءة المزيد حول هذا الموضوع في بطاقة النظام ومنشورنا البحثي.
وصنفت الشركة مستويات الأمان في إنتاج محتوى ضار، وصُنِف o1 – preview على أنه «متوسط» من ناحية التقييم العام للمخاطر كما أنه آمن للإطلاق والاستخدام العام نظرًا إلى أنه محدود لأنه لا يقدم طرقًا جديدة أو متقدمة بشكلٍ خاص لتحقيق أشياء غير ممكنة بالفعل بالوسائل المتوفرة، وبالتالي يُعتبر استخدامه آمنًا في هذا السياق لأنه لا يقدم تهديدًا إضافيًا.
وحصل o1 – preview على مع مستوى خطر «منخفض» في الأمن السيبراني واستقلالية النموذج، ومستوى خطر «متوسط» في مجالات الأسلحة الكيميائية والبيولوجية والإشعاعية والنووية (CBRN) والإقناع. تضمنت السلسلة النموذج الأساسي o1-preview بالإضافة إلى نسخة o1-mini المُصغرة والأقل تكلفة بنسبة 80% والأكثر سرعة أيضًا. ستوفر الشركة السلسلة الجديدة لمشتركي ChatGPT Plus. وتخطط لتقديم نسخة o1-mini بشكلٍ مجاني.
بينما تمثل نماذج OpenAI o1 تقدمًا كبيرًا في قدرات الذكاء الاصطناعي، فإنها تسلط الضوء أيضًا على التحديات المستمرة في موازنة التقدم التكنولوجي مع الاعتبارات الأخلاقية والعملية. يبقى من الضروري مواصلة البحث والحوار المجتمعي حول كيفية تسخير هذه التقنيات المتقدمة بشكلٍ مسؤول ومفيد للبشرية، خاصةً أن الشركة حدث بها العديد من الانشقاقات والاستقالات بسبب موضوع السلامة. ويبقى السؤال الأكثر لمعانًا؛ هل اقتربنا من تحقيق ذكاء اصطناعي عام (AGI)؟
?xml>