أعربت شركة OpenAI عن قلقها من أن الذكاء الاصطناعي وتقنياته الصوتية الواقعية قد تشجع المستخدمين على بناء روابط عاطفية قوية مع الروبوتات بدلاً من البشر. وأشارت الشركة إلى أن التفاعل مع الذكاء الاصطناعي بأسلوب يشبه البشر قد يؤدي إلى ثقة غير مبررة، وأن الصوت الواقعي لـ GPT-4o قد يزيد من هذا التأثير.
وفي تقرير حديث حول أعمال السلامة المتعلقة بنسخة ChatGPT-4o، حذرت OpenAI من مخاطر “التجسيم”، أي إسناد صفات إنسانية للروبوتات. كما لاحظت الشركة أن بعض المستخدمين يتحدثون إلى روبوتات الدردشة كما لو كانوا يتواصلون مع أصدقاء حقيقيين، مما يستدعي دراسة تأثير هذه الروابط على المدى الطويل.