أجرت Google تغييرا كبيرا في أخلاقيات الذكاء الاصطناعي ، حيث ألغت تعهدا طويل الأمد بأن الشركة لن تستخدم الذكاء الاصطناعي لأغراض الأسلحة أو المراقبة. يلغي هذا التحديث، الذي تم إجراؤه وفقا لمبادئ الذكاء الاصطناعي في Google، البنود التي كانت تمنع عملاق التكنولوجيا سابقا من تطوير تقنيات يمكن أن تسبب ضررا أو تنتهك حقوق الإنسان المقبولة دوليا.
بدلا من ذلك ، يقال إن المبادئ المحدثة تركز على التطوير المسؤول لمنظمة الذكاء الاصطناعي ، مع التركيز على الرقابة البشرية والمواءمة مع القانون الدولي. بينما تدعي Google أن المراجعات تعكس التطور السريع لتكنولوجيا الذكاء الاصطناعي منذ وضع المبادئ في عام 2018 ، فقد أثارت هذه الخطوة قلقا بين الخبراء والموظفين السابقين.
يأتي هذا التحول في وقت يتقدم فيه الذكاء الاصطناعي بسرعة ويثير أسئلة مهمة حول التوازن بين الابتكار والمسؤولية الأخلاقية. يجادل البعض بأن إزالة هذه الضمانات تفتح الباب أمام تطبيقات الذكاء الاصطناعي التي يحتمل أن تكون ضارة ، بينما يعتقد آخرون أن الإطار الجديد هو مجرد محاولة للتوافق مع معايير الصناعة العالمية. مع هذا التغيير ، هل ستحذو الشركات الأخرى حذوها ، وما هو التأثير الذي يمكن أن يحدثه على مستقبل الذكاء الاصطناعي؟
ما رأيك في قرار Google بمراجعة مبادئ الذكاء الاصطناعي الخاصة بها؟