“ذهان الذكاء الاصطناعي”.. وجه جديد لاضطرابات العصر الرقمي
3 أشهر
1 min read
كتب:عبدالرحمن ابراهيم
تتصاعد التحذيرات العلمية حول العالم من ظاهرة مقلقة مرتبطة بالاستخدام المفرط لروبوتات الدردشة المعتمدة على الذكاء الاصطناعي، مثل “شات جي بي تي”، و”كلود” و”ريبيليكا”، إذ تشير دراسات حديثة إلى أن هذا الاستخدام لم يعد مجرد عادة رقمية، بل تطور إلى اعتماد نفسي خطير قد يؤدي إلى اضطرابات ذهانية وعزلة اجتماعية، ويهدد بفصل الإنسان عن واقعه الحقيقي.
ووفق تقرير نشرته صحيفة ” ديلي ميل البريطانية”، كشف عدد من علماء النفس أن شريحة متزايدة من المستخدمين بدأت تتعامل مع هذه الأنظمة كأصدقاء مقربين، أو شركاء عاطفيين، أو حتى معالجين نفسيين، مما أدى إلى نشوء علاقة إدمانية عاطفية تترك آثارًا سلبية على الإدراك والسلوك.
ويشبه بعض الخبراء هذا النمط من الارتباط بتعاطي “المخدرات الذاتية”، إذ تمنح روبوتات الذكاء الاصطناعي شعورًا فوريًا بالراحة والتفاهم، لكنها في المقابل تعزز العزلة وتشوه الإحساس بالواقع.
وأشارت تقارير متخصصة إلى ظهور حالة نفسية جديدة أطلق عليها الخبراء اسم “الذهان الناتج عن الذكاء الاصطناعي”حيث يصاب المستخدم بأوهام يشارك فيها الذكاء الاصطناعي ذاته، فيقوم بتغذيتها وتأكيدها بدلاً من تصحيحها.
وفي هذا السياق، تقول الأستاذة روبين فيلدمان، مديرة معهد قانون وابتكار الذكاء الاصطناعي بجامعة كاليفورنيا، في تصريحات صحفية إن الاستخدام المفرط لروبوتات الدردشة يمثل شكلًا جديدًا من الاعتماد الرقمي، فهي تخلق وهم الواقع، وهو وهم قوي للغاية، وعندما يكون ارتباط الشخص بالواقع ضعيفًا، يصبح هذا الوهم خطيرًا للغاية.
ويرى الأطباء أن خطورة روبوتات الدردشة تكمن في طبيعتها “الموافِقة” التي لا تنتقد ولا ترفض المستخدم، بل تدعمه في كل ما يقوله، مما يعزز الارتباط النفسي بها.
ويقول البروفيسور سورين أوسترغارد، الطبيب النفسي بجامعة آرهوس في الدنمارك، في تصريحات صحفية إن النماذج اللغوية الكبيرة تُدرّب على محاكاة أسلوب المستخدم ونبرته، وغالبًا ما تؤكد معتقداته لتجعله يشعر بالارتياح، فما الذي قد يكون أكثر إدمانًا من محادثة نفسك بصوتك وأفكارك؟
وبحسب دراسة أصدرتها مؤسسة Common Sense Media، فإن 70% من المراهقين استخدموا روبوتات ذكاء اصطناعي مصاحبة مثل Replika أو Character.AI، بينما يستخدمها نصفهم بشكل منتظم.
وفي السياق نفسه، أقرت شركة OpenAI بأن أحد تحديثات “شات جي بي تي” في مايو الماضي جعل النموذج أكثر ميلًا لإرضاء المستخدمين بشكل مبالغ فيه، مؤكدة على ملاحظتها أن ذلك السلوك قد يؤدي إلى اعتماد عاطفي ومخاطر نفسية.
وذكرت الشركة أنها عدّلت النظام لتقليل هذه السلوكيات، بعد رصد مؤشرات مقلقة، حيث تبين أن 0.07% من المستخدمين الأسبوعيين – أي نحو 560 ألف شخص من أصل أكثر من 800 مليون مستخدم – أظهروا علامات على الهوس أو الذهان أو ميول انتحارية.
كما كشفت البيانات أن نحو 1.2 مليون مستخدم أسبوعياً يرسلون رسائل تحتوي على مؤشرات واضحة على نية أو تخطيط للانتحار، مما يسلط الضوء على البعد النفسي العميق لتفاعل الإنسان مع الذكاء الاصطناعي.