Brytyjski doradca wymaga regulacji, ponieważ AI może zagrozić ludzkości w ciągu dwóch lat

Brytyjski doradca wymaga regulacji, ponieważ AI może zagrozić ludzkości w ciągu dwóch lat
Ponieważ sztuczna inteligencja (AI) wielokrotnie osiąga przełom w możliwościach, rośnie obawy, czy te innowacje mogą stać się bardziej wydajne niż ich twórcy.
Matt Clifford, przewodniczący British Advanced Research and Invention Agency (ARIA), niedawno podkreślił to w wywiadzie dla lokalnej agencji prasowej.
AI musi być regulowane w ciągu dwóch lat
Clifford podkreślił, że KI wkrótce będzie musiał zostać uregulowany, aby zawierać ryzyko „bardzo potężnego” w ciągu najbliższych dwóch lat, ponieważ człowiek obecnie nie ma nad nimi kontroli.
„Mamy dwa lata na stworzenie ram, które sprawiają, że zarówno kontrola, jak i regulacja tych bardzo dużych modeli znacznie łatwiejsza niż dzisiaj” - powiedział.
Clifford skomentował krótkoterminowe i długoterminowe ryzyko, które mogą wynikać z korzystania z narzędzi AI, i powiedział, że ludzie mogą wykorzystywać informacje generowane przez AI do tworzenia biowapen lub przeprowadzania cyberataków.
Clifford nie jest jedynym ekspertem technologicznym, który martwi się o ryzyko związane ze wzrostem AI. W liście otwartym Centrum Bezpieczeństwa AI 350 ekspertów sztucznej inteligencji opowiadało się za ideą traktowania sztucznej inteligencji jako zagrożenia egzystencjalnego, takiego jak broń nuklearna i pandemia, zagraża ludzkiej egzystencji.
Czy AI może stanowić większe zagrożenie dla ludzkości?
Informatyk i były pracownik Google Geoffrey Hinton ma również pomysł, że AI może wycofać władzę u ludzi. Na początku miesiąca wspomniał w wywiadzie, że ludzie budują inteligencję, którzy przekraczają ludzkość i zagrożenie dla naszego istnienia.
Hinton, który jest uważany za jednego ze sponsorów AI, podkreślił wydajność i umiejętności cyfrowej inteligencji w celu wymiany wiedzy w porównaniu z ograniczeniami inteligencji biologicznej. Hinton przyznał, że AI ma potencjalne zalety, ale podkreślił potrzebę łagodzenia i zapobiegania związanym z nimi negatywnych konsekwencji.
.