تسعى إدارة بايدن إلى الحصول على مدخلات بشأن تدابير السلامة الخاصة بالذكاء الاصطناعي

تريد إدارة الرئيس جو بايدن إجراءات أقوى لاختبار أمان أدوات الذكاء الاصطناعي مثل ChatGPT قبل نشرها علنًا ، على الرغم من أنها لم تقرر ما إذا كان للحكومة دور في إجراء التدقيق.

قالت وزارة التجارة الأمريكية يوم الثلاثاء إنها ستمضي الستين يومًا القادمة في إرسال آراء حول إمكانية إجراء عمليات تدقيق على الذكاء الاصطناعي وتقييمات المخاطر وغيرها من التدابير التي يمكن أن تخفف من مخاوف المستهلكين بشأن هذه الأنظمة الجديدة.

قال مساعد وزير التجارة آلان ديفيدسون ، مدير الإدارة الوطنية للاتصالات والمعلومات: “هناك مستوى متزايد من القلق الآن ، نظرًا لوتيرة الابتكار ، يجب أن يحدث بشكل مسؤول”.

تسعى NTIA ، بصفتها مستشارًا أكثر من كونها جهة تنظيمية ، إلى الحصول على تعليقات حول السياسات التي يمكن أن تجعل أدوات الذكاء الاصطناعي التجارية أكثر عرضة للمساءلة.

قال بايدن الأسبوع الماضي خلال اجتماع مع مستشاريه في مجلس العلوم والتكنولوجيا ، يجب على شركات التكنولوجيا التأكد من أن منتجاتها آمنة قبل إطلاقها للجمهور.

كما كشفت إدارة بايدن العام الماضي عن مجموعة من الأهداف بعيدة المدى تهدف إلى تجنب الأضرار الناجمة عن ظهور أنظمة الذكاء الاصطناعي ، ولكن كان ذلك قبل إصدار ChatGPT ، من شركة OpenAI الناشئة في سان فرانسيسكو ، والمنتجات المماثلة من Microsoft و Google ، مما أدى إلى زيادة الوعي بقدرات أحدث أدوات الذكاء الاصطناعي التي يمكن أن تولد الإنسان -مثل المقاطع النصية وكذلك الصور والفيديو الجديد.

قال ديفيدسون في مقابلة: “هذه النماذج اللغوية الجديدة ، على سبيل المثال ، قوية حقًا ولديها القدرة على إحداث ضرر حقيقي”. “نعتقد أن آليات المساءلة هذه يمكن أن تساعد حقًا من خلال توفير ثقة أكبر في الابتكار الذي يحدث.”

يعتمد إشعار NTIA بشكل كبير على طلب التعليق حول إجراءات “التنظيم الذاتي” التي من المرجح أن تقودها الشركات التي تصنع التكنولوجيا. هذا على النقيض من الاتحاد الأوروبي ، حيث يتفاوض المشرعون هذا الشهر على تمرير قوانين جديدة يمكن أن تضع قيودًا صارمة على أدوات الذكاء الاصطناعي اعتمادًا على مدى خطورة ذلك.