Britisk rådgiver kræver regulering, fordi AI kunne true menneskeheden om to år

Britisk rådgiver kræver regulering, fordi AI kunne true menneskeheden om to år
Da kunstig intelligens (AI) gentagne gange opnår gennembrud i mulighederne, vokser bekymring over, om disse innovationer kan blive mere effektive end deres skabere.
Matt Clifford, formand for British Advanced Research and Invention Agency (ARIA), understregede for nylig dette i et interview med et lokalt nyhedsagentur.
AI skal reguleres inden for to år
Clifford understregede, at Ki snart skulle reguleres for at indeholde risikoen for at blive ”meget magtfuld” inden for de næste to år, da mennesket i øjeblikket ikke har kontrol over dem.
"Vi har to år til at skabe en ramme, der gør både kontrol og regulering af disse meget store modeller meget lettere end i dag," sagde han.
Clifford kommenterede de kortsigtede og langsigtede risici, der kan være resultatet af brugen af AI-værktøjer, og sagde, at folk kunne bruge AI-genereret information til at producere biowapen eller udføre cyberangreb.
Clifford er ikke den eneste teknologiekspert, der bekymrer sig om de risici, der er forbundet med AI -vækst. I et åbent brev fra Center for AI Safety fortalerede 350 eksperter i kunstig intelligens ideen om at behandle AI som en eksistentiel trussel, såsom atomvåben og pandemier truer den menneskelige eksistens.
Kan AI repræsentere en større trussel mod menneskeheden?
Computerforskeren og den tidligere Google -medarbejder Geoffrey Hinton har også ideen om, at AI kunne trække magten tilbage til folk. I begyndelsen af måneden nævnte han i et interview, at folk bygger efterretning, der overskrider menneskeheden og en trussel mod vores eksistens.
Hinton, der betragtes som en af sponsorerne af AI, understregede effektiviteten og færdighederne i digital intelligens til udveksling af viden sammenlignet med begrænsningerne for biologisk intelligens. Hinton indrømmede, at AI har potentielle fordele, men understregede behovet for at afbøde og forhindre de tilknyttede negative konsekvenser.
.