يان ليكون


رأى كبير علماء الذكاء الاصطناعي في شركة “ميتا”، يان ليكون، أن حماية البشر من المخاطر المستقبلية للذكاء الاصطناعي تتطلب وضع حاجزين أساسيين شبيهين بالغرائز عند البشر والحيوانات، وهما “الخضوع للبشر” و”التعاطف”.

وأوضح ليكون، عبر منشور على منصة “لينكدإن”، أن هذه المبادئ يجب أن تُبرمج في أنظمة الذكاء الاصطناعي بحيث تكون جميع أفعالها موجّهة لتحقيق أهداف يحددها البشر، مع الالتزام بقيود وقائية صارمة. وأطلق على هذا المفهوم اسم “الذكاء الاصطناعي الموجه بالأهداف”.

وكان جيفري هينتون، الملقب بـ”عرّاب الذكاء الاصطناعي”، قد دعا سابقًا إلى زرع ما يشبه “غرائز الأمومة” داخل هذه الأنظمة، لتكون أكثر تعاطفًا مع الإنسان، وهو ما اعتبره ليكون طرحًا متقاطعًا مع أفكاره.

وأشار ليكون إلى أن الشركات المطورة مطالبة بفرض حواجز أبسط إلى جانب المبادئ الأساسية لضمان السلامة، معتبرًا أن هذه التدابير تعادل الغرائز والدوافع التي اكتسبتها الكائنات الحية عبر التطور، مثل غريزة حماية الصغار.

ويأتي هذا النقاش في ظل تزايد القلق من سلوكيات غير متوقعة أو مخادعة قد تظهرها بعض نماذج الذكاء الاصطناعي، ما يعزز الدعوات إلى تطوير أنظمة أكثر أمانًا وأخلاقيًا.

البحث