منصة مبتكرة تكشف سرقة بياناتك المستخدمة في تدريب نماذج الذكاء الاصطناعي

منصة مبتكرة تكشف سرقة بياناتك المستخدمة في تدريب نماذج الذكاء الاصطناعي

في ظل التطور السريع لتقنيات الذكاء الاصطناعي التوليدي، بدأت العديد من شركات التكنولوجيا في تعديل سياسات الخصوصية وشروط الاستخدام الخاصة بها بشكل صامت، بما يسمح لها باستخدام بيانات المستخدمين في تدريب نماذجها أو ترخيص هذه البيانات لشركات أخرى لأغراض مشابهة، هذا التوجه أثار تساؤلات وقلقاً متزايداً حول خصوصية المستخدمين وملكية بياناتهم.

مؤخراً، أثار تطبيق WeTransfer جدلاً كبيراً بعدما أضاف إلى شروط الاستخدام إمكانية استخدام الملفات المرفوعة على منصته في تحسين نماذج التعلم الآلي، ورغم أن الشركة تراجعت سريعاً عن هذه الإضافة وأزالت أي إشارة إلى الذكاء الاصطناعي من الوثيقة، إلا أن الحادثة كشفت عن القلق المتزايد لدى المستخدمين حول كيفية تعامل الشركات مع بياناتهم، في وقت أصبحت فيه كل معلومة وقوداً محتملاً للذكاء الاصطناعي.

تعمد شركات التكنولوجيا حالياً إلى جمع البيانات المتاحة علناً عبر الإنترنت من منشورات وسائل التواصل الاجتماعي ومراجعات المطاعم والمدونات والصور الشخصية لتغذية خوارزميات الذكاء الاصطناعي، وعلى الرغم من أن مجموعات حقوقية وفنانين ومبدعين رفعوا دعاوى قضائية ضد استخدام محتواهم بدون إذن، فإن المستخدمين الفرديين بدأوا يحصلون على بعض الوسائل لتقييد استخدام بياناتهم.

استجابةً لضغوط المستخدمين، بدأت شركات مثل جوجل وأوبن إيه آي ولينكد إن بتوفير خيار الانسحاب من استخدام بيانات الأفراد في تدريب النماذج، وإن لم تضمن هذه الخيارات دائماً إزالة البيانات التي سبق استخدامها.

للراغبين في التحقق مما إذا كانت بياناتهم أو أعمالهم الإبداعية استخدمت في تدريب نماذج الذكاء الاصطناعي، يمكنهم زيارة موقع Have I Been Trained؟، وهي منصة طورتها فرق تقنية لمساعدة المبدعين على اكتشاف ما إذا كانت أعمالهم ضمن مجموعات التدريب.

في حال اكتشاف استخدام بياناتك بالفعل، يمكن اتباع إجراءات محددة على كل منصة لإيقاف استخدامها مستقبلاً، مثلاً يمكن لمستخدمي Adobe تعطيل خيار تحليل المحتوى عبر صفحة الخصوصية، في حين تتيح جوجل إلغاء حفظ التفاعلات مع جيميني من خلال إعدادات النشاط.

أما مستخدمو تويتر/إكس، فيمكنهم من خلال إعدادات الخصوصية إلغاء تفعيل مشاركة البيانات مع “غروك” وهو chatbot طورته شركة xAI التابعة لإيلون ماسك.

من جانبها، أتاحت لينكد إن منذ العام الماضي خيار تعطيل استخدام منشورات المستخدمين العامة في تدريب نماذج الذكاء الاصطناعي الخاصة بها، أما أدوات مثل ChatGPT وDALL E التابعة لأوبن إيه آي، فيمكن للمستخدمين إلغاء تفعيل خيار “تحسين النموذج” من إعدادات الحساب، وفي حالة الصور، يتطلب الأمر تقديم نموذج رسمي يثبت ملكية المحتوى للمطالبة بإزالته من التدريب المستقبلي.

مع ذلك، من المهم التنويه إلى أن هذه الإجراءات لا تحذف البيانات التي قد استخدمت بالفعل، خاصة وأن العديد من شركات الذكاء الاصطناعي ترفض الإفصاح عن مجموعات بياناتها لتجنب التدقيق القانوني أو المشكلات المتعلقة بحقوق النشر.

بشكل عام، تتعامل شركات التكنولوجيا الكبرى مع المحتوى المنشور على الإنترنت باعتباره “متاحاً للتدريب” ما لم يحم بقوانين خصوصية صارمة، وشركة مثل ميتا تجمع المحتوى العام من المستخدمين البالغين لتدريب نماذجها، مع استثناءات فقط لدول الاتحاد الأوروبي التي تطبق قواعد أكثر صرامة.