بدأ عدد من مستخدمي ChatGPT مؤخرًا بملاحظة سلوك غير معتاد من روبوت الدردشة التابع لشركة OpenAI. ففي بعض المحادثات، بدأ ChatGPT يناديهم بأسمائهم الأولى، رغم أنهم لم يزودوه بهذه المعلومات من قبل. هذا التغيير المفاجئ أثار الكثير من التساؤلات وردود الفعل المتباينة، خاصة من ناحية الخصوصية والراحة النفسية أثناء التفاعل مع الذكاء الاصطناعي.
مستخدمون يشعرون بالانزعاج: “الأمر يبدو غريبًا”
تفاوتت الآراء حول هذه الخاصية، لكن كثيرين وجدوا أنها “مزعجة” أو حتى “مخيفة”. المطور “سيمون ويليسون”، على سبيل المثال، وصف استخدام الاسم بأنه غير ضروري و”يبعث على القلق”. أما المطور “نيك دوبوس” فقد قال صراحةً: “أنا أكره ذلك”.
هل ذاكرة ChatGPT هي السبب؟
التساؤلات تصاعدت بشأن ما إذا كانت ميزة “الذاكرة” (Memory) في ChatGPT مسؤولة عن هذا التغيير. هذه الميزة، التي تم الإعلان عنها سابقًا، تمكن الروبوت من تذكر المعلومات السابقة عن المستخدم لتقديم ردود مخصصة وأكثر دقة.
لكن المفاجأة أن بعض المستخدمين أشاروا إلى أن ChatGPT استمر في استخدام أسمائهم حتى بعد تعطيل الذاكرة وإعدادات التخصيص، مما يثير الشكوك حول مدى شفافية النظام في ما يخص استخدام البيانات الشخصية.
من “التخصيص” إلى “الاقتحام”
تسعى شركة OpenAI إلى جعل ChatGPT أكثر واقعية وتفاعلية من خلال توفير تجربة شخصية للمستخدمين. وفي هذا السياق، صرّح المدير التنفيذي للشركة، سام ألتمان، بأن الذكاء الاصطناعي في المستقبل سيكون قادرًا على “التعرف على المستخدم بمرور الوقت” ليصبح أكثر تخصيصًا وفائدة. ومع ذلك، لا تزال هذه الرؤية تثير جدلًا واسعًا، خاصةً عندما يشعر بعض المستخدمين بأن التخصيص قد يتجاوز الحدود المريحة.
لكن بحسب العديد من المستخدمين، فإن الإشارة إلى الأسماء بشكل مفاجئ لا يعزز الشعور بالألفة، بل يعطي انطباعًا مقلقًا وكأن النظام يتخطى حدود التفاعل البشري الطبيعي.
التفسير النفسي: لماذا نرفض مناداة الروبوت لنا بالاسم؟
وفقًا لمقال نشر في عيادة فالينز النفسية في دبي، فإن استخدام الاسم الشخصي في التواصل يعطي شعورًا بالأهمية والانتماء. لكن في حالة الذكاء الاصطناعي، فإن استخدام الاسم قد يبدو مصطنعًا أو متطفلًا، خاصة إذا جاء من كيان غير بشري.
وقد جاء في التقرير أن “استخدام الاسم الشخصي يمنح شعورًا بالتقدير وبناء العلاقة، إلا أن الإفراط أو التوظيف غير المناسب لهذا الأسلوب قد يفقده معناه، ويجعله يبدو مزعجًا أو مفتعلًا”.
هل آن الأوان لتقييد التخصيص المفرط في الذكاء الاصطناعي؟
ما يجري حاليًا مع ChatGPT يعكس أحد التحديات الرئيسية التي ستواجه الذكاء الاصطناعي في المستقبل. فمن جهة، هناك رغبة متزايدة في تقديم تجربة مخصصة لكل مستخدم. ومن جهة أخرى، تبرز الحاجة الملحّة لاحترام خصوصية المستخدم والحفاظ على شعوره بالراحة أثناء التفاعل.
فبدلاً من تعزيز التفاعل، قد يتحول “الاهتمام الزائد” إلى شعور بالريبة أو الانزعاج، خاصة عندما لا يشعر المستخدم بأنه وافق صراحة على مشاركة بياناته.
في النهاية، تسعى شركات الذكاء الاصطناعي مثل OpenAI إلى تقديم تجارب أكثر تفاعلًا وإنسانية. لكن استخدام أسماء المستخدمين دون إذن واضح يسلط الضوء على فجوة حقيقية بين نوايا التطوير وواقع الخصوصية. ما يعتبره البعض تحسينًا لتجربة المستخدم، قد يراه آخرون تعديًا على المساحة الشخصية. لذلك، يبقى التحدي الأكبر هو تحقيق التوازن بين الخصوصية الرقمية والذكاء الاصطناعي المخصص، دون تجاوز الخطوط التي قد تجعل التكنولوجيا تبدو أكثر تطفلًا من كونها مفيدة.
مع استمرار تطور الأدوات الذكية، من المهم أن تمنح للمستخدمين السيطرة الكاملة على بياناتهم، وأن تكون خيارات التخصيص شفافة وقابلة للتحكم، لتبقى الثقة في صميم العلاقة بين البشر والأنظمة الذكية.




