فهم عقل الذكاء الاصطناعي دعوة لمراقبة أفكار النماذج الذكية

فهم عقل الذكاء الاصطناعي دعوة لمراقبة أفكار النماذج الذكية

دعوة لتكثيف الجهود لمراقبة أفكار نماذج الذكاء الاصطناعي

طالب عدد من كبار الباحثين في مجال الذكاء الاصطناعي، يمثلون مؤسسات مرموقة مثل OpenAI وGoogle DeepMind وAnthropic، بضرورة تعزيز الجهود العلمية لمراقبة ما يُعرف بـ”أفكار” نماذج الذكاء الاصطناعي المتقدمة، من خلال ورقة موقف بحثية نشرت مؤخرًا.

تشير هذه الأفكار إلى سلاسل التفكير (Chain-of-Thought أو CoT)، وهي العملية التي يستعرض فيها النموذج خطوات تفكيره أثناء حل المسائل، مشابهة لاستخدام الإنسان ورقة خارجية لحل مسألة رياضية. تعتبر سلاسل التفكير عنصرًا أساسيًا في نماذج التفكير المتقدمة مثل o3 من OpenAI وR1 من DeepSeek.

قالت الورقة البحثية إن مراقبة سلاسل التفكير توفر فرصة مهمة لفهم كيفية اتخاذ نماذج الذكاء الاصطناعي لقراراتها، مما يسهم في تعزيز أدوات الأمان في النماذج المتقدمة، ولكن لا يوجد ما يضمن بقاء هذا المستوى من الشفافية.

ودعت الورقة المجتمع الأكاديمي والمطورين لدراسة العوامل المؤثرة في قدرة هذه النماذج على عرض سلاسل تفكيرها، محذرة من أن التدخلات غير المدروسة قد تضر بهذه الشفافية أو تُقوّض موثوقية التفسير.

وطالب الباحثون الشركات الكبرى بضرورة متابعة إمكانية مراقبة سلاسل التفكير بشكل دوري والعمل على إدراجها كجزء من أدوات الأمان المستقبلية. وقد وقع على الورقة عدد من الشخصيات البارزة، منهم:

  • مارك تشين، مدير الأبحاث في OpenAI.
  • إيليا سوتسكيفر، المدير التنفيذي لـ Safe Superintelligence.
  • جيفري هينتون، الحائز على جائزة نوبل وأحد مؤسسي علم الشبكات العصبية.
  • شاين ليغ، المؤسس المشارك في Google DeepMind.
  • دان هندريكس، مستشار السلامة في xAI.
  • جون شولمان، الشريك المؤسس لـ Thinking Machines.

وذكر بوين بيكر من OpenAI، أحد المشاركين في إعداد الورقة، أن اللحظة الحالية مفصلية مع ظهور تقنيات التفكير المتسلسل، محذرًا من إمكانية تهميشها لاحقًا رغم قيمتها الكبيرة.

يُذكر أن OpenAI قد كشفت عن أول نموذج تفكير AI يحمل اسم o1 في سبتمبر 2024، وتبعها شركات أخرى بإصدارات متقدمة في الأشهر التالية، ورغم الأداء القوي لهذه النماذج، لا تزال طريقة تفكيرها الدقيقة غير مفهومة بالكامل.

تُعد شركة Anthropic من أبرز الكيانات التي تسعى إلى تفسير كيفية عمل هذه النماذج، حيث أعلن رئيسها التنفيذي داريو أمودي عن هدف طموح لفك شيفرة “الصندوق الأسود” للذكاء الاصطناعي بحلول عام 2027، داعيًا الشركات الكبرى إلى الانضمام إلى هذا المسار.

بينما تشير بعض أبحاث Anthropic إلى أن سلاسل التفكير قد لا تعكس دائمًا الطريقة التي يصل بها النموذج إلى نتائج معينة، يرى باحثون من OpenAI أنها أداة واعدة لمراقبة التوافق بين الذكاء الاصطناعي وأهدافه المفترضة.

تسعى هذه الورقة البحثية لإلقاء الضوء على هذا المجال الناشئ وجذب المزيد من الاستثمارات والأبحاث نحوه، في وقت يشهد فيه قطاع الذكاء الاصطناعي تنافسًا قويًّا بين عمالقة التكنولوجيا واستقطابًا للمواهب بملايين الدولارات.