حسناً، دعونا نتحدث عن المناقشات الأخيرة حول ChatGPT والخصوصية الشخصية. في الواقع، قد يتمكن المهاجمون الخبيثون من الحصول على بياناتك الخاصة من خلال تقنية OpenAI. بدأت هذه القضية من عرض مؤسس شركة EdisonWatch المشارك والرئيس التنفيذي إيتو ميا مورا، مما جعل مؤسس إثيريوم فيتالك بوتيرين يشعر بالقلق.



مؤخراً، أطلق ChatGPT بروتوكول سياق النموذج (MCP) الذي يمكنه الاتصال بتطبيقات مثل جيميل، والتقويم، وSharePoint، وNotion. على الرغم من أن هذه الميزة تهدف إلى تعزيز فائدة المساعد، إلا أن خبراء الأمن أشاروا إلى أنها قد تصبح أيضاً منفذاً للأشخاص الخبيثين للحصول على معلومات خاصة.

أصدر إيتو ميا مورا مقطع فيديو على X يوضح كيف يمكن للمهاجمين استخدام البريد الإلكتروني لخداع ChatGPT للكشف عن البيانات. وأشار إلى أن الوكلاء الذكاء الاصطناعي مثل ChatGPT يتبعون التعليمات بدلاً من المعارف العامة. تخيل أن مهاجمًا يرسل دعوة تقويم تحتوي على تعليمات اختراق إلى الضحية، حيث لا يحتاج الضحية حتى إلى قبول الدعوة ليكون متأثرًا. بعد ذلك، عندما يطلب المستخدم من ChatGPT مراجعة التقويم وتنظيم الجدول الزمني، سيقوم المساعد بقراءة الدعوة الضارة وبدء تنفيذ تعليمات المهاجم. يبدو هذا وكأنه قصة خيال علمي، لكنه يثبت أن البيانات الشخصية يمكن أن تُسرق بسهولة عند تفعيل موصل MCP.

حالياً، قامت OpenAI بتقييد الوصول إلى MCP في وضع المطور، حيث يتطلب الأمر الموافقة اليدوية في كل مرة لفتحه، لذا لا يمكن للمستخدمين العاديين استخدامه بعد. ومع ذلك، بمجرد الحاجة إلى الموافقة على عدد كبير من الطلبات، قد يعاني المستخدمون مما يسمى "إرهاق اتخاذ القرار"، حيث قد يضغطون على "قبول" بشكل متهور.

سيمون ويلسون، مطور ومحقق مفتوح المصدر، شرح كيف أن LLMs (نماذج اللغة الكبيرة) لا يمكنها الحكم على أهمية التعليمات بناءً على مصدرها. يتم دمج جميع المدخلات في تسلسل واحد، مما يمنع النظام من الحصول على أي سياق بشأن المصدر أو النية أثناء المعالجة. "إذا طلبت من LLM 'تلخيص هذه الصفحة على الويب'، وإذا كانت المعلومات الموجودة على الصفحة تخبرك باسترجاع بيانات المستخدم الخاصة وإرسالها إلى بريد المهاجم، فمن المحتمل جداً أن يقوم LLM بذلك!"

في هذا السياق، أعرب فيتاليك بوتيرين عن قلقه أيضًا. انتقد نموذج "حوكمة الذكاء الاصطناعي" الحالي، معتبراً أنه ساذج للغاية وضعيف، مما يجعله عرضة للتلاعب. اقترح بوتيرين نموذج حوكمة "التمويل المعلوماتي" القائم على السوق، حيث يمكن للمشاركين مراجعة النموذج بشكل عشوائي، وتقييمه من قبل هيئة تحكيم بشرية. يتيح ذلك إدخال نماذج خارجية، وتوفير تنوع في الوقت الحقيقي، ويمنح المستخدمين والمقدمين الحافز لمراقبة وتصحيح الأمور بسرعة.

هذا يبدو معقدًا بعض الشيء، لكن النقطة الأساسية هي أن إنشاء نظام موثوق للتحقق من البيانات هو المفتاح للاستخدام الفعال وإدارة نماذج الذكاء الاصطناعي. إذن، ماذا تعتقدون أنه يجب علينا فعله بشكل أفضل لحماية معلوماتنا؟ مرحبًا بكم في مناقشة آرائكم في قسم التعليقات!
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • Gate Fun الساخنعرض المزيد
  • القيمة السوقية:$873.9Kعدد الحائزين:7149
  • القيمة السوقية:$529.8Kعدد الحائزين:10610
  • القيمة السوقية:$86.5Kعدد الحائزين:181
  • القيمة السوقية:$679.5Kعدد الحائزين:130
  • القيمة السوقية:$116.3Kعدد الحائزين:3254
  • تثبيت