En grupp forskare vid universitetet i Cambridge, Storbritannien föreslår i en ny rapport, “Computing Power and the Governance of Artificial Intelligence”, att en kinds kill change, dödsknapp, borde byggas in i hårdvaran som driver artificiell intelligens för att begränsa dess potentiellt skadliga användning.
En kill change kan liknas vid ett dödmansgrepp som är en säkerhetsanordning som träder i kraft när användaren förlorar kontrollen över en maskin eller ett fordon. Forskarna föreslår att dödsknappen för AI ska gå att fjärraktivera på distans. Det hela uppmärksammades först av The Register.
Bland andra förslag i rapporten för att göra bruket av AI-hårdvara säkrare syns regleringar och sanktioner gällande tillgången until AI-relevant datorkraft för att undvika överträdelser. Forskarna föreslår även en international registrering av AI-chippförsäljningen för att bekämpa smuggling och göra det möjligt att identifiera användningen av AI-hårdvara.
Andra möjliga säkerhetsverktyg är att godkännandeprocesser införs för potentiellt riskabla AI-träningsscenarier. Forskarna föreslår även att en större omfördelning av AI-resurser genomförs med målet att tekniken ska gynna samhället.
Synthetic Intelligence
Source link