في خطوة غير مسبوقة، دعت كبرى شركات الذكاء الاصطناعي إلى تعزيز الأبحاث حول "مراقبة...
Vous n'êtes pas connecté
في خطوة غير مسبوقة، دعت كبرى شركات الذكاء الاصطناعي إلى تعزيز الأبحاث حول "مراقبة أفكار" نماذج الذكاء الاصطناعي، عبر تتبع ما يعرف بسلاسل التفكير، بهدف تعزيز الشفافية وضمان الأمان في مستقبل يتسارع نحو الاعتماد على وكلاء ذكاء اصطناعي أكثر استقلالية.اقرأ أيضاً..الكشف عن نموذج جديد للذكاء الاصطناعي يُتقن التفكير العميقدعا باحثون من شركات رائدة مثل ، أوبن ايه آي، وجوجل و"ديب مايند" و"أنثروبيك"، إلى تعزيز الأبحاث في مجال مراقبة "أفكار" نماذج الذكاء الاصطناعي، خاصة تلك المعروفة بنماذج التفكير الاستدلالي. جاء ذلك ضمن ورقة موقف نُشرت مؤخرًا، تحث المجتمع العلمي على التركيز على أدوات تسمى سلاسل التفكير "CoTs"، والتي تسمح بتتبع كيف "تفكر" النماذج في حل المشكلات.بحسب تقرير نشره موقع "تك كرانش". ما هي سلاسل التفكير (CoTs)؟سلاسل التفكير هي آلية تستخدمها نماذج الذكاء الاصطناعي المتقدمة لحل المشكلات خطوة بخطوة، بطريقة شبيهة بكتابة الإنسان لمسودة حسابية لتوضيح أفكاره. هذه العملية تُظهر كيف تصل النماذج إلى نتائجها، مما يجعلها أداة مهمّة لفهم طريقة اتخاذ القرارات داخل النماذج.فرصة لا يجب تفويتهايؤكد الباحثون أن هذه الشفافية قد لا تستمر إلى الأبد. وقد حذّر الباحث بوين بيكر من "OpenAI"، قائلاً: "نحن نمر بمرحلة حرجة. هذه الطريقة الجديدة في التفكير قد تختفي خلال سنوات إن لم نحظَ بالاهتمام الكافي بها الآن."ويهدف نشر الورقة إلى تحفيز المزيد من الأبحاث قبل أن تندثر هذه النافذة الفريدة على "عقل" الذكاء الاصطناعي.سباق بين الشركات يتسارع تطوير نماذج الاستدلال منذ إطلاق "OpenAI" لأول نموذج من هذا النوع (o1) في سبتمبر 2024، تسعى شركات مثل "xAI" و"جوجل ديب مايند" إلى التفوق في سباق الأداء، لكن الخبراء يُحذّرون من أن ذلك قد يُغفل أهمية فهم المنطق الداخلي للقرارات التي تتخذها هذه الأنظمة.تُعد شركة "أنثروبيك" من أبرز الجهات العاملة في مجال تفسير الذكاء الاصطناعي (Interpretability). وقد أعلن رئيسها التنفيذي داريو أمودي التزام الشركة بفك "الصندوق الأسود" للنماذج بحلول عام 2027، داعيًا OpenAI إلى الانضمام لهذا المسار البحثي المهم.اقرأ أيضاً..سلوك نماذج الذكاء الاصطناعي تحت مجهر الخبراءهل يمكن الوثوق في سلاسل التفكير؟تشير أبحاث "أنثروبيك" إلى أن سلاسل التفكير قد لا تعكس دائمًا ما يحدث فعلًا داخل النموذج. في المقابل، ترى أوبن أيه آي أن مراقبة CoT يمكن أن تصبح وسيلة موثوقة لتقييم سلامة النماذج ومدى التزامها بالأهداف البشرية، بشرط تطويرها وفهمها جيدًا.ماذا تقترح الورقة الجديدة؟تدعو الورقة إلى دراسة ما الذي يجعل سلاسل التفكير قابلة للمراقبة، أي ما العوامل التي تزيد أو تقلل من شفافيتها. كما تحث مطوري النماذج على تتبع هذا العامل بانتظام، وتحذّر من إدخال تعديلات قد تؤثر على مصداقية أو وضوح هذه السلاسل في المستقبل. إجماع نادر في مجتمع الذكاء الاصطناعيمن بين الأسماء الموقعة على الورقة: جيفري هينتون، "عرّاب الذكاء الاصطناعي" والحائز على نوبل. إيليا سوتسكيفر، الرئيس التنفيذي لشركة Safe Superintelligence. مارك تشين من شركة OpenAI. شين ليج من "جوجل ديب مايند". دان هندريكس مستشار السلامة في "xAI".إلى جانب عدد من الباحثين من "أمازون" و"ميتا" وجامعة بيركلي ومؤسسة Apollo Research.دعوة للهدوء والتأملتأتي هذه الدعوة في وقت يشهد فيه القطاع منافسة شديدة على الكفاءات، حيث تحاول شركات مثل ميتا، استقطاب باحثين من OpenAI وDeepMind وAnthropic عبر عروض مغرية. وبالرغم من هذا التنافس، تمثّل والورقة الجديدة لحظة نادرة من التوافق والاتحاد بين قادة الصناعة من أجل تعزيز أمان الذكاء الاصطناعي، وضمان شفافيته.لمياء الصديق (أبوظبي)
في خطوة غير مسبوقة، دعت كبرى شركات الذكاء الاصطناعي إلى تعزيز الأبحاث حول "مراقبة...
في دعوة جماعية غير مسبوقة، طالب كبار الباحثين في مجال الذكاء الاصطناعي من مؤسسات...
وافقت شركة جوجل، التابعة لمجموعة ألفابت، على دفع نحو 2.4 مليار دولار في صفقة لترخيص...
في خطوة لافتة نحو توظيف الذكاء الاصطناعي في خدمة التعليم بشكل أكثر فاعلية...
في خطوة لافتة نحو توظيف الذكاء الاصطناعي في خدمة التعليم بشكل أكثر فاعلية...
في خطوة لافتة تعكس تحولها في نهجها التطويري، تدرس شركة آبل الأمريكية حالياً...
في خطوة لافتة تعكس تحولها في نهجها التطويري، تدرس شركة آبل الأمريكية حالياً...
أعلنت شركة OpenAI، الرائدة في مجال الذكاء الاصطناعي، عن توقيعها عقدًا مع شركة أوراكل...
حذر خبراء مصريون في مجال الأمن السيبراني من التهديدات المتزايدة لما يُعرف...
تعتزم شركة Isomorphic Labs، التابعة لـ “ديب مايند” المملوكة لجوجل، بدء أول تجارب سريرية...