
حذر الرئيس التنفيذي لشركة “أوبن إيه آي” سام ألتمان، من أنّ المحادثات التي يجريها المستخدمون مع روبوت الدردشة “تشات جي بي تي”، لا تتمتع بالحماية القانونية نفسها التي تُكفل للجلسات العلاجية أو الاستشارات الطبية والقانونية.
وأوضح أنّ هذه الدردشات، حتى وإن حُذفت، يمكن استرجاعها لأغراض قانونية أو أمنية، ما ينفي عنها صفة الخصوصية المطلقة.
ويأتي هذا التحذير في وقت تتزايد فيه حالات استخدام الذكاء الاصطناعي، خصوصًا من قبل الشباب، كبديل عن المعالجين النفسيين أو المدربين الشخصيين.
وأعرب ألتمان عن قلقه من هذا التوجه خلال ظهوره في بودكاست “ثيو فون”، قائلًا: “الناس يتحدثون إلى تشات جي بي تي عن أكثر تفاصيل حياتهم خصوصية، كأن يسأل أحدهم: لديّ مشكلات في علاقتي، ماذا أفعل؟”.
وأضاف: “في الحالات الاعتيادية، يكون هناك إطار قانوني يضمن السرية بين الطبيب والمريض أو بين المحامي وموكله، لكنّ هذا الامتياز لا يشمل التفاعلات مع روبوتات الدردشة، ولم يتم بعد وضع إطار قانوني واضح لها”.
وأكد ألتمان أنّ العالم يواجه تحديًا قانونيًا متصاعدًا، في ظل تزايد الاعتماد على الذكاء الاصطناعي لأغراض الدعم النفسي.
وقال: “لم يكن هذا الأمر مطروحًا قبل عام، أما الآن فأصبح من القضايا الكبرى التي تستدعي معالجة تشريعية جادة”.
روبوتات الدردشة تُعزز الوصمة
وفي سياق متصل، حذرت دراسة أولية أجراها باحثون من جامعة ستانفورد، من المخاطر الكامنة في استخدام روبوتات الذكاء الاصطناعي كمعالجين نفسيين.
وأشارت الدراسة التي لم تخضع بعد لمراجعة، إلى أنّ هذه الروبوتات غالبًا ما تستجيب بشكل غير ملائم لحالات الصحة النفسية، وتفشل في التعرف إلى الأزمات، ما قد يؤدي إلى نتائج عكسية.
وجاء في الدراسة أنّ “نماذج اللغة الكبيرة التي تشغل هذه الروبوتات تُظهر أداءً ضعيفًا، كما أنها تعكس وصمات اجتماعية ضارة تجاه بعض الأمراض النفسية”، موضحة أنّ التفاعل مع حالات مثل الفصام أو الإدمان، اتسم بالتحيز والتمييز بينما كانت الاستجابة لحالات الاكتئاب أكثر مرونة.
وأبرز الباحثون أنّ هذه السلوكيات تتعارض مع القواعد المهنية المعمول بها في الطب النفسي، حيث يفترض أن يعامل جميع المرضى على قدم المساواة، بغضّ النظر عن طبيعة اضطراباتهم.
وتكشف هذه التطورات عن فجوة متزايدة بين التقدم التقني في الذكاء الاصطناعي ومتطلبات الحماية الأخلاقية والقانونية للمستخدمين.
