لوجو شات جي بي تي (رويترز)

تصاعدت المخاوف حول خصوصية المستخدمين بعد تحذيرات الباحثة زوي هيتزيغ عقب استقالتها من “OpenAI”، حيث لفتت إلى أن محادثات المستخدمين مع “ChatGPT”، بما فيها الأمور الصحية والشخصية والمعتقدات، قد تتحول إلى أرشيف غير مسبوق للأفكار الإنسانية الحساسة يمكن استغلاله تجاريًا.

وقالت هيتزيغ في مقال بصحيفة نيويورك تايمز إن ملايين المستخدمين يعتبرون الذكاء الاصطناعي مساحة آمنة للبوح، لكن جمع هذه البيانات قد يمنح الشركات قدرة غير مسبوقة على فهم الاحتياجات النفسية والسلوكية بدقة عالية، وهو ما يفتح الباب أمام استخدامات إعلانية دقيقة.

تأتي هذه التحذيرات مع تقارير عن بدء اختبار الإعلانات داخل أنظمة الذكاء الاصطناعي، حيث يمكن استهداف الأفراد برسائل تسويقية دقيقة يصعب رصدها. ويرى مراقبون أن الضغوط المالية على شركات الذكاء الاصطناعي، نتيجة تكاليف البنية التحتية والمنافسة، تدفعها نحو الاعتماد على نموذج الإعلانات لتحقيق الإيرادات.

ويثير هذا التحول أسئلة حول التوازن بين الربحية وحماية الخصوصية، خصوصًا بعد إلغاء فريق أُنشئ لضمان توجيه الذكاء الاصطناعي لخدمة البشرية. حتى الآن لا توجد دلائل على بيع البيانات مباشرة، لكن الجدل يعكس قلقًا عالميًا حول استخدام البيانات في عصر الذكاء الاصطناعي، مع تساؤل حول مدى الحفاظ على ثقة المستخدمين إذا شعرت بياناتهم بأنها مادة للاستهداف الإعلاني.

البحث