صورة توضيحية - shutterstock - NicoElNino
وقالت سلطة حماية الخصوصية في بيان وصلت نسخة عنه لموقع بانيت : " الذكاء الاصطناعي بات جزءًا من واقعنا، ولكن ماذا يحدث عندما نشاركه معلومات شخصية؟ تنشر سلطة حماية الخصوصية في وزارة العدل ولأول مرة دليلًا عمليًا مخصصًا للجمهور الواسع، يتضمن توصيات واضحة لاستخدام الذكاء الاصطناعي التوليدي في البيوت وللاستخدامات الشخصية، دون تعريض خصوصيتكم للخطر. في عصر أصبحت فيه أدوات الذكاء الاصطناعي التوليدي (Generative AI) جزءًا من الحياة اليومية – مثل ChatGPT وGemini وMidjourney وأدوات أخرى تظهر كل أسبوع – تتزايد الحاجة لفهم التأثيرات المحتملة لهذه الأدوات على خصوصية المستخدمين" .
الخطر يبدأ من التعليمات التي تكتبها “البْرومْبت”: هكذا تتحوّل معلومة عادية إلى تهديد للخصوصية
واضاف البيان: " بات استخدام الذكاء الاصطناعي شائعًا لكتابة الرسائل الإلكترونية، وإنشاء الصور والفيديوهات، والتخطيط للرحلات، والحصول على توصيات للمنتجات وغيرها. ولكن خلف سحر هذه التكنولوجيا، تكمن تحديات حقيقية:
كل برومبت (أي المعلومة أو التعليمات التي تدخلونها في الأداة) قد يتضمن معلومات شخصية – ومن دون أن تنتبهوا، قد تكشفون عن معلومات عن أنفسكم أكثر مما تقصدون.
الرغبة بالحصول على نتائج دقيقة وملائمة لاحتياجاتنا، تؤدي في كثير من الأحيان إلى إدخال معلومات شخصية – وأحيانًا حساسة. على سبيل المثال: "أنا أركض بانتظام وأبحث عن توصيات لمعدات رياضية" قد تبدو كجملة بسيطة، ولكن خلف كل كلمة تكمن بيانات شخصية: عادات صحية، حالة جسدية، هوايات، وحتى تلميحات عن الموقع الجغرافي. إضافة إلى ذلك، يمكن استخدام البيانات المُدخلة في البرومبت لاستخلاص معلومات إضافية عند دمجها مع بيانات أخرى: مثل أنماط الاستهلاك لشركات التسويق، أو بيانات لشركات التأمين الصحي، أو استهداف إعلانات لسباقات الجري والمجموعات الرياضية... ولا يتوقف الأمر هنا – فمع تكرار إرسال برومبتات مختلفة على مدى الزمن، حتى وإن بدا كل واحد منها عاديًا، يمكن من خلالها تركيب ملف شخصي دقيق للغاية عن المستخدم.
وكأي نظام رقمي آخر، الذكاء الاصطناعي التوليدي معرّض كذلك للهجمات السيبرانية. إذا تمكّن مخترِق من الوصول إلى حساب المستخدم، فقد يحصل على كمية كبيرة من المعلومات الشخصية، التي عند دمجها مع مصادر أخرى علنية، قد تشكّل تهديدًا حقيقيًا للخصوصية.
الدليل الجديد يشمل:
• شرحًا واضحًا للمخاطر الأساسية على الخصوصية.
• أمثلة حية على برومبتات قد تكون خطيرة.
• سلسلة توصيات عملية – كيف تطرح الأسئلة بشكل صحيح من دون كشف معلومات زائدة.
• أدوات بسيطة تساعدكم في الحفاظ على الخصوصية واستخدام واعي للتكنولوجيا" .
وختم البيان: " هذا الدليل لا يقيّد استخدام الذكاء الاصطناعي – بل على العكس: يهدف إلى مساعدتكم على استخدامه بأفضل شكل، بشكل واعٍ ومسؤول وآمن. التوصيات في الدليل موجّهة للاستخدام الشخصي والخاص فقط، ولا تشمل الاستخدام المهني أو التجاري أو المؤسسي، والذي تحكمه تعليمات أخرى منفصلة من سلطة الخصوصيّة.
الرسالة واضحة: الذكاء الاصطناعي قادر على تحسين حياتنا – لكن الأمر بين أيدينا. نعم نستخدمه، لكن نستخدمه بشكل صحيح" .