أثار الرئيس التنفيذي لشركة OpenAI، سام ألتمان، جدلًا جديدًا عندما حذر المستخدمين من الاعتماد على ChatGPT في الأمور النفسية أو طلب الدعم العاطفي. وقال إن المحادثات التي يجريها المستخدمون مع روبوتات الذكاء الاصطناعي لا تتمتع بأي حماية قانونية مثل تلك الموجودة في جلسات العلاج النفسي أو الاستشارات القانونية.
لا سرية طبية مع الذكاء الاصطناعي
في مقابلة بودكاست مع المذيع ثيو فون، أوضح ألتمان أن مستخدمي ChatGPT، وخاصة من فئة الشباب، يشاركون تفاصيل شخصية للغاية، مثل مشكلات العلاقات أو الضغوط النفسية، ويتعاملون مع الأداة كما لو كانت معالجًا نفسيًا أو مدربًا حياتيًا.
لكنه أكد أن القانون لا يعترف بهذه العلاقة مثل العلاقة بين المريض والطبيب، أو العميل والمحامي. وبالتالي، فإن البيانات التي يتم تبادلها عبر ChatGPT يمكن أن تُستخدم قانونيًا في حال وجود دعاوى قضائية.
أزمة خصوصية حقيقية
قال سام ألتمان إن الكثير من المستخدمين يتحدثون إلى ChatGPT حول أمور شخصية للغاية، مثل العلاقات والمشكلات النفسية. لكنه أشار، في نفس الوقت، إلى نقطة جوهرية تثير القلق. فبرأيه، لا توجد أي حماية قانونية لهذه المحادثات، على عكس ما يحدث عندما يتحدث الشخص مع طبيب أو محامٍ، حيث تنطبق قوانين السرية والخصوصية. وهذا، بحسب قوله، يشكل فجوة قانونية خطيرة يجب التعامل معها سريعًا.
وأشار إلى أن هذه الفجوة القانونية تمثل خطرًا على خصوصية المستخدمين، وقد تجبر OpenAI على تقديم هذه المحادثات في حال صدور أمر قضائي.
دعوات لحماية خصوصية البيانات
أكد ألتمان أن هذا الواقع “مقلق للغاية”، مشددًا على أن المستخدمين يجب أن يحصلوا على نفس مستوى الخصوصية في محادثاتهم مع أدوات الذكاء الاصطناعي، كما هو الحال مع المتخصصين في العلاج النفسي أو القانون. كما أضاف أن هذا النقص في الوضوح القانوني يعتبر عائقًا أمام انتشار واسع لهذه التقنية، خاصة في المجالات التي تتطلب سرية كاملة.
معركة قانونية مفتوحة
في سياق مشابه، تخوض OpenAI حاليًا معركة قضائية ضد صحيفة نيويورك تايمز، بعد أن طالبت المحكمة بحفظ محادثات المستخدمين، باستثناء مستخدمي خدمة ChatGPT Enterprise. ووصفت الشركة هذا الطلب بأنه “تجاوز قانوني” قد يفتح الباب لمزيد من المطالب القانونية مستقبلاً.
تهديد أوسع للخصوصية الرقمية
أوضح المقال أن شركات التكنولوجيا تتعرض باستمرار لأوامر قانونية لتسليم بيانات المستخدمين في قضايا جنائية. ومع تضييق بعض الحريات في السنوات الأخيرة، ازدادت المخاوف بشأن خصوصية البيانات الرقمية، خاصة بعد إلغاء المحكمة العليا الأمريكية لحكم “رو ضد وايد”، ما دفع المستخدمين للجوء إلى تطبيقات أكثر أمانًا مثل Apple Health.
خصوصيتك ليست مضمونة
في نهاية المقابلة، شدد سام ألتمان على أهمية الوضوح القانوني قبل الانخراط الكامل في استخدام أدوات الذكاء الاصطناعي مثل ChatGPT، خصوصًا في الأمور الحساسة. وأوضح أنه من المنطقي تمامًا أن يتردد البعض في مشاركة معلومات شخصية دون ضمانات قانونية واضحة. وبحسب تعبيره، فإن الرغبة في حماية الخصوصية ليست مبالغة، بل خطوة ضرورية قبل استخدام هذه الأدوات بشكل واسع.