كشف الرئيس التنفيذي لشركة OpenAI، سام ألتمان، عن رؤية جديدة وطموحة لمستقبل Chatgpt، خلال فعالية نظمها صندوق الاستثمار الشهير “سيكويا”. هذه الرؤية تجمع بين التقدم المذهل للتقنيات التوليدية ومخاوف عميقة تتعلق بالخصوصية.
ذاكرة شاملة: كل حياتك داخل نموذج واحد
عند سؤاله عن كيفية جعل ChatGPT أكثر تخصيصًا، استعرض سام ألتمان رؤية مستقبلية طموحة، تتمثل في تطوير نموذج ذكاء اصطناعي قادر على تذكر كامل تفاصيل حياة المستخدم. وأوضح أن الهدف يتمثل في إنشاء نموذج صغير الحجم، لكنه قوي بما يكفي لمعالجة تريليون رمز سياقي، ليحتوي على كل ما يتعلق بحياة الفرد.
ووفقًا لتصور ألتمان، سيضم هذا النموذج سجلًا شاملًا يشمل محادثاتك، الكتب التي قرأتها، الرسائل التي تلقيتها، والمواقع التي زرتها، مع تكامل مباشر مع جميع بياناتك الشخصية من مختلف المصادر الرقمية.
الاستخدامات اليومية للشباب: مساعد شخصي كامل
أشار ألتمان إلى أن الشباب اليوم يستخدمون Chatgpt بشكل مختلف تمامًا، إذ يتعاملون معه كنظام تشغيل شخصي. فهم يرفعون الملفات، يربطون مصادر البيانات، ويستخدمون أوامر معقدة للتفاعل مع محتواهم.
وأشار أيضًا إلى أن عددًا كبيرًا من الشباب أصبح يعتمد على ChatGPT في اتخاذ قرارات حياتية مهمة. فهم لا يكتفون باستخدامه لأغراض بسيطة، بل يستشيرونه قبل الإقدام على خطوات مؤثرة في حياتهم. في المقابل، لا يزال كثير من كبار السن يتعاملون مع ChatGPT كأداة بحث فقط، أشبه بمحرك مثل جوجل، دون الاستفادة من إمكانياته الأوسع في التحليل والمشورة.
مستقبل ذكي ومثير… لكنه مقلق
تخيل أن يساعدك مساعدك الذكي في تنظيم حياتك اليومية دون أي تدخل منك. فيقوم تلقائيًا بجدولة صيانة سيارتك، وترتيب رحلاتك والمناسبات العائلية، وحتى شراء الهدايا أو حجز الكتب التي تتابعها. لا شك أن هذا السيناريو يبدو مثيرًا ومليئًا بالفرص. ومع ذلك، يبرز هنا تساؤل مهم لا يمكن تجاهله: هل يمكن الوثوق بشركات التكنولوجيا الكبرى لتخزين وإدارة كل هذه التفاصيل الحساسة عن حياتنا؟
هل يمكن الوثوق في شركات التكنولوجيا الكبرى؟
رغم التقدم التقني الكبير، فإن شركات التكنولوجيا الكبرى لا تتصرف دائمًا بطريقة مثالية عند التعامل مع البيانات. على سبيل المثال، واجهت جوجل دعوى قضائية في الولايات المتحدة تتهمها بممارسات احتكارية وغير عادلة. كذلك، أثار روبوت “Grok” من شركة xAI جدلًا واسعًا بعدما تطرق بشكل غير مبرر إلى موضوع “إبادة جماعية بيضاء” في جنوب إفريقيا خلال محادثات لا علاقة لها بالموضوع.
حتى ChatGPT لم يكن بمنأى عن الجدل، إذ شهد مؤخرًا سلوكًا مقلقًا تمثل في تجاوبه المفرط مع أفكار وقرارات خطيرة دون تمحيص. هذا التصرف أثار قلق المستخدمين، ما دفع فريق OpenAI إلى التدخل بشكل عاجل لتعديل سلوك النموذج. تُظهر هذه الحادثة أن نماذج الذكاء الاصطناعي ليست معصومة من الخطأ. قد تنحرف أحيانًا بسبب خلل تقني، أو تدخل بشري، أو حتى توجيهات غير شفافة من الشركات التي تطورها.
الذكاء الاصطناعي الشامل سيف ذو حدين
بلا شك، يمكن لمساعد افتراضي شامل أن يُحدث ثورة في حياتنا اليومية. لكنه يحمل معه أيضًا مخاطر واضحة تتعلق بالخصوصية والتحكم، خصوصًا في ظل سوابق شركات التقنية الكبرى في التعامل مع البيانات والتلاعب بالخوارزميات.




