يتطلب المستشار البريطاني التنظيم لأن الذكاء الاصطناعى قد يهدد الإنسانية خلال عامين

Da künstliche Intelligenz (KI) immer wieder Durchbrüche in den Möglichkeiten erzielt, wächst die Sorge, ob diese Innovationen möglicherweise leistungsfähiger werden als ihre Schöpfer. Matt Clifford, Vorsitzender der britischen Advanced Research and Invention Agency (ARIA), betonte dies kürzlich in einem Interview mit einer lokalen Nachrichtenagentur. KI muss innerhalb von zwei Jahren reguliert werden Clifford betonte, dass KI bald reguliert werden müsse, um das Risiko einzudämmen, innerhalb der nächsten zwei Jahre „sehr mächtig“ zu werden, da der Mensch derzeit keine Kontrolle über sie habe. „Wir haben zwei Jahre Zeit, um einen Rahmen zu schaffen, der sowohl die Kontrolle als auch die Regulierung …
نظرًا لأن الذكاء الاصطناعي (AI) يحقق مرارًا وتكرارًا اختراقات في الاحتمالات ، فإن القلق ينمو فيما إذا كانت هذه الابتكارات قد تصبح أكثر كفاءة من منشئيها. مات كليفورد ، رئيس وكالة الأبحاث والاختراع المتقدمة البريطانية (ARIA) ، أكد مؤخرًا في مقابلة مع وكالة أنباء محلية. يجب تنظيم الذكاء الاصطناعى في غضون عامين ، أكد كليفورد أنه يتعين تنظيم الذكاء الاصطناعى قريبًا من أجل احتواء خطر أن يصبح "قويًا جدًا" خلال العامين المقبلين ، نظرًا لأن الأشخاص لا يسيطرون حاليًا على ذلك. "لدينا عامين لإنشاء إطار عمل يسيطر عليه وتنظيمه ... (Symbolbild/KNAT)

يتطلب المستشار البريطاني التنظيم لأن الذكاء الاصطناعى قد يهدد الإنسانية خلال عامين

نظرًا لأن الذكاء الاصطناعي (AI) يحقق مرارًا وتكرارًا اختراقات في الاحتمالات ، فإن القلق ينمو فيما إذا كانت هذه الابتكارات قد تصبح أكثر كفاءة من منشئيها.

مات كليفورد ، رئيس وكالة الأبحاث والاختراع المتقدمة البريطانية (ARIA) ، أكد مؤخرًا في مقابلة مع وكالة أنباء محلية.

يجب تنظيم

AI في غضون عامين

أكد

كليفورد أنه يتعين تنظيم KI قريبًا لاحتواء خطر أن يصبح "قويًا جدًا" خلال العامين المقبلين ، نظرًا لأن الإنسان ليس لديه سيطرة عليها حاليًا.

"لدينا عامين لإنشاء إطار يجعل السيطرة على هذه النماذج الكبيرة للغاية وتنظيمها أسهل بكثير من اليوم".

علق

كليفورد على المخاطر قصيرة الأجل وطويلة الأجل يمكن أن تنجم عن استخدام أدوات الذكاء الاصطناعى ، وقال إن الأشخاص يمكنهم استخدام المعلومات التي تم إنشاؤها بواسطة الذكاء الاصطناعى لإنتاج البيوبل أو تنفيذ الهجمات الإلكترونية.

كليفورد ليس هو خبير التكنولوجيا الوحيد الذي يقلق بشأن المخاطر المرتبطة بنمو الذكاء الاصطناعي. في خطاب مفتوح من مركز سلامة الذكاء الاصطناعي ، دعا 350 خبيرًا في الذكاء الاصطناعي إلى فكرة التعامل مع الذكاء الاصطناعى كتهديد وجودي ، مثل الأسلحة النووية والأوبئة التي تهدد الوجود الإنساني.

هل يمكن أن تمثل الذكاء الاصطناعي تهديدًا أكبر للبشرية؟

عالم الكمبيوتر والموظف السابق في Google Geoffrey Hinton لديه أيضًا فكرة أن الذكاء الاصطناعى يمكنه سحب السلطة للأشخاص. في بداية الشهر ، ذكر في مقابلة أن الناس يبنون ذكاءً يتجاوزون البشرية وتهديدنا لوجودنا.

أكد

Hinton ، الذي يعتبر أحد رعاة الذكاء الاصطناعي ، على كفاءة ومهارات الذكاء الرقمي لتبادل المعرفة مقارنة بالقيود المفروضة على الذكاء البيولوجي. اعترف هينتون بأن الذكاء الاصطناعى له مزايا محتملة ، لكنه أكد على الحاجة إلى التخفيف ومنع العواقب السلبية المرتبطة بها.

.