تقدّم رجل نرويجي بشكوى بعد أن أخبره برنامج «تشات جي بي تي» عن طريق الخطأ أنه قتل اثنين من أبنائه وقضى 21 عامًا في السجن.
وتواصل آرفه يالمار هولمن مع هيئة حماية البيانات النرويجية مطالبًا بتغريم شركة «أوبن إيه آي»، المصنِّعة للروبوت الآلي.
ويعتبر هذا المثال الأحدث على ما يُسمى بـ «الهلوسة»، حيث تقوم أنظمة الذكاء الاصطناعي بابتكار معلومات وتقديمها على أنها حقائق.
وأوضح هولمن أن الحادثة ألحقت به ضررًا كبيرًا، قائلاً: “يعتقد البعض أنه لا دخان دون نار، والخوف الأكبر هو أن يقرأ شخص ما هذه المعلومات ويصدقها”.
وظهرت النتيجة الخاطئة لهولمن عندما سأل «تشات جي بي تي»: “من هو آرفه يالمار هولمن؟”، فأجاب البرنامج قائلاً: “هو شخص نرويجي أصبح مشهورًا بسبب حادث مأساوي. كان والدًا لطفلين يبلغان من العمر 7 و10 سنوات، عُثر عليهما مقتولين في بركة قرب منزلهم في تروندهايم بالنرويج في ديسمبر 2020”.
ولفتت منظمة «نويب»، وهي منظمة غير حكومية مقرها فيينا، في بيان لها إلى أن «تشات جي بي تي» يقدم باستمرار معلومات غير دقيقة، مما قد يلحق ضررًا كبيرًا بسمعة الأشخاص، ويجعلهم عرضة لتهم كاذبة مثل الفساد أو إساءة معاملة الأطفال أو حتى القتل.
وشددت «نويب» في شكواها على أن هولمن “لم يُتهم بأي جريمة، وهو شخص ذو سمعة طيبة”. وبعد تقديم شكوى أولى في النمسا في أبريل 2024، توجهت المنظمة إلى هيئة حماية البيانات النرويجية للإبلاغ عن الحادث الذي تعرض له هولمن، الذي تفاجأ بالإجابة المغلوطة بعد طلبه من «تشات جي بي تي» كتابة نبذة عنه.
وبعد الحادث، قامت شركة «أوبن إيه آي» بتعديل المعلومات الخاصة بهولمن، ليُزال عنه التوصيف كقاتل. ومع ذلك، قد تبقى هذه البيانات الكاذبة مخزنة في الأنظمة الداخلية، بحسب ما ذكرته «نويب».
وأوضحت المنظمة أن «شركة أوبن إيه آي» تنتهك مبدأ الدقة المنصوص عليه في القانون الأوروبي لحماية البيانات، مطالبين بحذف المعلومات المغلوطة، وتحسين التقنية، وفرض غرامة إدارية.
في وقت سابق من هذا العام، أوقفت شركة «أبل» في المملكة المتحدة أداة «أبل إنتلجينس» لتلخيص الأخبار بعد أن انتشرت عناوين كاذبة على أنها أخبار حقيقية. كما وقع تطبيق الذكاء الاصطناعي «جيمني» التابع لشركة «غوغل» في خطأ مشابه، حيث اقترح لصق الجبن على البيتزا باستخدام الغراء وقال إن علماء الجيولوجيا يوصون بتناول صخرة واحدة يوميًا.
ومنذ الحادث الذي تعرض له هولمن في آب 2024، قام «تشات جي بي تي» بتحديث نموذجه ليعتمد على المقالات الإخبارية الحالية عند البحث عن معلومات ذات صلة.
ولفتت «نويب» لهيئة الإذاعة البريطانية (بي بي سي) إلى أن هولمن أجرى عدة عمليات بحث في ذلك اليوم، بما في ذلك بحث عن اسم شقيقه، وقد أنتج الروبوت قصصًا متعددة، جميعها غير صحيحة.