تقدم شركة أوبن إيه آي علاجات لحل حظر ChatGPT الإيطالي

قال المنظمون يوم الخميس إن الشركة التي تقف وراء ChatGPT ستقترح تدابير لحل مخاوف خصوصية البيانات التي أدت إلى فرض حظر إيطالي مؤقت على برنامج الدردشة الآلي للذكاء الاصطناعي.

منعت هيئة حماية البيانات الإيطالية ، المعروفة باسم Garante ، الأسبوع الماضي روبوت الدردشة الشهير OpenAI ومقره سان فرانسيسكو، وأمرها بالتوقف مؤقتًا عن معالجة المعلومات الشخصية للمستخدمين الإيطاليين أثناء التحقيق في انتهاك محتمل لقواعد خصوصية بيانات الاتحاد الأوروبي.

قال الخبراء إن هذه هي الحالة الأولى من نوعها لديمقراطية تفرض حظراً على مستوى البلاد على منصة ذكاء اصطناعي رئيسية.

في مكالمة فيديو في وقت متأخر من يوم الأربعاء بين مفوضي المراقبة والمديرين التنفيذيين لشركة OpenAI بما في ذلك الرئيس التنفيذي سام التمان ، وعدت الشركة بوضع تدابير لمعالجة المخاوف. لم يتم تفصيل هذه العلاجات.

قالت هيئة الرقابة الإيطالية إنها لا تريد إعاقة تطوير الذكاء الاصطناعي لكنها شددت لـ OpenAI على أهمية الامتثال لقواعد الخصوصية الصارمة للاتحاد الأوروبي المكون من 27 دولة..

وفرض المنظمون الحظر بعد أن تم الكشف عن رسائل بعض المستخدمين ومعلومات الدفع للآخرين. كما تساءلوا عما إذا كان هناك أساس قانوني لـ OpenAI لجمع كميات هائلة من البيانات المستخدمة لتدريب خوارزميات ChatGPT وأثاروا مخاوف من أن النظام قد ينتج أحيانًا معلومات خاطئة عن الأفراد.

يتم “تدريب” ما يسمى بتقنية الذكاء الاصطناعي التوليدية مثل ChatGPT على مجموعات ضخمة من البيانات ، بما في ذلك الكتب الرقمية والكتابات عبر الإنترنت ، وهي قادرة على إنشاء نص يحاكي أنماط الكتابة البشرية.

أحدثت هذه الأنظمة ضجة في عالم التكنولوجيا وخارجه ، لكنها أيضًا أثارت مخاوف بين المسؤولين والمنظمين وحتى علماء الكمبيوتر وقادة صناعة التكنولوجيا حول المخاطر الأخلاقية والمجتمعية المحتملة.

بدأ المنظمون الآخرون في أوروبا وأماكن أخرى في إيلاء المزيد من الاهتمام بعد الإجراء الإيطالي.

صرحت لجنة حماية البيانات في أيرلندا بأنها “تتابع الأمر مع الجهة التنظيمية الإيطالية لفهم أساس عملها وسننسق مع جميع سلطات حماية البيانات في الاتحاد الأوروبي فيما يتعلق بهذا الأمر.”

قالت هيئة تنظيم خصوصية البيانات الفرنسية ، CNIL ، إنها تحقق بعد تلقي شكوتين بشأن ChatGPT. كما فتح مفوض الخصوصية الكندي تحقيقا في OpenAI بعد تلقي شكوى بشأن “جمع المعلومات الشخصية واستخدامها والإفصاح عنها بدون موافقة”.

في مدونة هذا الأسبوع ، حذر مكتب مفوض المعلومات في المملكة المتحدة من أن “المنظمات التي تقوم بتطوير أو استخدام الذكاء الاصطناعي التوليدي يجب أن تفكر في التزاماتها بحماية البيانات منذ البداية” وتصميم أنظمة مع حماية البيانات كإعداد افتراضي.

قال المكتب: “هذا ليس اختياريًا – إذا كنت تعالج البيانات الشخصية ، فهذا هو القانون”.

في رد واضح على المخاوف ، نشرت OpenAI منشور مدونة يوم الأربعاء يحدد منهجها في أمان الذكاء الاصطناعي. قالت الشركة إنها تعمل على إزالة المعلومات الشخصية من بيانات التدريب حيثما كان ذلك ممكنًا ، وضبط نماذجها لرفض طلبات المعلومات الشخصية للأفراد ، وتعمل على طلبات حذف المعلومات الشخصية من أنظمتها.