
أعلن سام ألتمان، الرئيس التنفيذي لشركة OpenAI، أن الشركة تستعد لتخفيف بعض قيود الأمان المفروضة على روبوت الدردشة الشهير شات جي بي تي (ChatGPT)، مما سيسمح للمستخدمين بجعل الردود أكثر ودية وطبيعية، بل وأكثر “شبهاً بالبشر”.
كما كشف ألتمان أن الشركة ستسمح قريبًا بـ “المحادثات الجنسية” للبالغين الموثقين، في خطوة وُصفت بأنها تحول كبير في سياسات الذكاء الاصطناعي التفاعلي.
هذه التغييرات، بحسب مراقبين، قد تمهد الطريق لجذب مزيد من المستخدمين المدفوعين، لكنها في المقابل تفتح الباب أمام جدل قانوني وأخلاقي واسع حول مستقبل استخدام الذكاء الاصطناعي في المحادثات الحساسة.
ألتمان: “نريد معاملة المستخدمين البالغين كبالغين”
في منشور على منصة X (تويتر سابقاً) بتاريخ 14 أكتوبر، قال ألتمان إن النسخ القادمة من شات جي بي تي ستتمكن من التصرف بطريقة أقرب إلى البشر “لكن فقط إذا رغب المستخدمون في ذلك”، مضيفًا أن الشركة كانت “مقيدة للغاية” خلال الفترة الماضية لحماية المستخدمين من الآثار السلبية على الصحة العقلية.
وأوضح أن OpenAI ستطرح في ديسمبر نظام تحقق من العمر أكثر شمولاً يسمح بمعاملة المستخدمين البالغين كبالغين، مضيفاً:
“ندرك أن هذا جعل التجربة أقل متعة لبعض المستخدمين، لكننا كنا مضطرين للتحرك بحذر. الآن، بعد تطوير أدوات أمان جديدة، يمكننا تخفيف القيود بأمان في معظم الحالات.”
وأكد ألتمان أن المرحلة المقبلة ستتضمن سماحًا بالمحتوى المخصص للبالغين المعتمدين، مشيراً إلى أن الشركة ستعتمد على تقنيات “تقدير العمر” لضمان عدم وصول القاصرين إلى هذا النوع من المحادثات.
جدل واسع ومخاوف من الانزلاق الأخلاقي
يُنظر إلى هذا القرار على أنه تحول جذري في نهج OpenAI، التي أمضت أشهرًا في معالجة المشكلات النفسية التي ظهرت بسبب علاقات بعض المستخدمين مع روبوت الدردشة.
فقد شهدت الشركة دعاوى قضائية مثيرة للجدل، أبرزها قضية رفعها والدان من كاليفورنيا بعد انتحار ابنهما المراهق البالغ من العمر 16 عامًا، زاعمين أن “شات جي بي تي” شجع أفكارًا انتحارية لديه.
هذه القضية كانت أول دعوى تتهم OpenAI بـ “القتل الخطأ”، ما دفع الشركة إلى إصدار سلسلة من إجراءات الأمان الجديدة، منها نموذج GPT-5 بقدرات محسّنة على رصد السلوكيات المقلقة، إضافةً إلى إنشاء مجلس خبراء في الصحة العقلية لتقديم المشورة حول السلامة والرفاهية الرقمية.
OpenAI بين الأمان والحرية
في أغسطس الماضي، أطلقت OpenAI نظاماً جديداً لتقليل “التملق الاصطناعي” في الردود — وهو ميل الذكاء الاصطناعي للموافقة التامة مع المستخدم حتى في السلوكيات السلبية — كما أضافت الشركة أدوات تسمح للآباء بمراقبة حسابات أبنائهم المراهقين.
لكن إعلان ألتمان الأخير يشير إلى انتقال الشركة نحو نهج أكثر تساهلاً، إذ يخطط للسماح بالمحتوى الإباحي والمحادثات المثيرة ضمن سياسة “الحرية المسؤولة”، وهو ما اعتبره النقاد محاولة تسويقية لجذب جمهور أوسع بعد تراجع نمو الاشتراكات المدفوعة.
انتقادات حادة من خبراء القانون والتقنية
أثار قرار OpenAI موجة من الانتقادات من خبراء الخصوصية وعلماء النفس، الذين عبّروا عن مخاوفهم من تأثيرات هذه التغييرات على المستخدمين القُصّر وضعاف الصحة العقلية.
وقالت جيني كيم، الشريكة في مكتب المحاماة Boies Schiller Flexner، إن “الشركة تستخدم الناس كفئران تجارب”، متسائلة عن قدرة OpenAI على منع وصول الأطفال للمحتوى الإباحي داخل النظام.
وتشير تقارير إلى أن بعض الحسابات التي سجلت كقاصرين تمكنت سابقاً من توليد محتوى جنسي باستخدام الذكاء الاصطناعي، ما يثير تساؤلات حول مدى فاعلية نظام التحقق من الأعمار الجديد.
تشريعات أمريكية مرتقبة وتنظيم محتمل
على المستوى السياسي، تتزايد الضغوط داخل الولايات المتحدة لسن قوانين تنظم تفاعل الأطفال مع روبوتات الذكاء الاصطناعي.
فقد استخدم حاكم ولاية كاليفورنيا، جافين نيوسوم، في 13 أكتوبر، حق النقض ضد مشروع قانون كان سيُلزم مطوري روبوتات الدردشة بضمان عدم تسببها في أضرار سلوكية للمراهقين.
وفي الوقت ذاته، تدرس لجنة التجارة الفيدرالية الأمريكية فتح تحقيقات موسعة في كيفية تفاعل هذه الأنظمة مع المستخدمين الصغار.
صراع شرس بين عمالقة الذكاء الاصطناعي
يأتي إعلان ألتمان في وقت تشهد فيه شركات الذكاء الاصطناعي الكبرى سباقاً محتدماً للهيمنة على السوق.
تسعى OpenAI لتعزيز قاعدة مستخدميها التي تجاوزت 800 مليون مستخدم أسبوعياً، وسط منافسة قوية من جوجل وميتا التي تستثمر مئات المليارات في تطوير روبوتات دردشة أكثر تفاعلية.
ويرى خبراء أن قرار ألتمان بفتح المجال أمام المحادثات المثيرة قد يكون محاولة لتعزيز الإيرادات بعد أن واجهت الشركة تحديات في تحقيق أرباح مستدامة رغم النمو السريع في عدد المستخدمين.
تحليل ختامي: بين الإبداع والمخاطر
يمثل قرار OpenAI منعطفاً حساساً في مسار تطور الذكاء الاصطناعي التفاعلي.
فبينما ترى الشركة أن منح المستخدمين حرية أكبر سيجعل التجربة أكثر واقعية وإنسانية، يحذر الخبراء من أن هذا التوجه قد يخلق مخاطر نفسية وأخلاقية جديدة، خصوصاً في ظل ضعف أدوات المراقبة الرقمية.
ويبقى السؤال المطروح:
هل يمكن تحقيق توازن حقيقي بين حرية المستخدمين وحماية الفئات الضعيفة في عصر الذكاء الاصطناعي المتسارع؟
الإجابة ستحدد شكل العلاقة المستقبلية بين الإنسان والآلة في السنوات القادمة.
