Toppen! Nu Àr du prenumerant pÄ Warp News
HÀrligt! Genomför ditt köp i kassan för full tillgÄng till Warp News
Varmt vÀlkommen tillbaka! Du Àr nu inloggad.
Tack! Kolla din inkorg för att aktivera ditt konto.
Klart! Din faktureringsinformation Àr nu uppdaterad.
Uppdateringen av faktureringsinformationen misslyckades.
đŸ€– Kevin Kelly: Reglera inte AI baserat pĂ„ rĂ€dsla för mĂ€nsklig utrotning

đŸ€– Kevin Kelly: Reglera inte AI baserat pĂ„ rĂ€dsla för mĂ€nsklig utrotning

"Att bara vara riktigt smart innebÀr inte att du övervinna Ätta miljarder mÀnniskors vilja att överleva."

Mathias Sundin
Mathias Sundin

Dela artikeln

I en intervju med Warp News om sin nya bok, Excellent Advice for Living, pratade Kevin Kelly ocksÄ om AI och den nuvarande debatten om riskerna med AI.

Vad Àr din syn pÄ riskerna med AI och hur AI ska anpassas till mÀnniskor?

"Det finns olika nivÄer av anpassning. Att anpassa AI:s vÀrderingar Àr legitimt. Att göra dem bÀttre Àn vi i genomsnitt Àr en bra sak att arbeta med."

Men vad sÀger du om AI sÄ kraftfull att den allvarligt kan skada eller döda oss?

"Risken Àr större Àn noll, men sÄ lÄg att den inte borde pÄverka vÄra policies sÀrskilt mycket."

"Nyligen jÀmförde nÄgra det med en pandemi eller klimatförÀndringar. Jag tycker att en asteroid Àr en bÀttre jÀmförelse. En asteroidtrÀff pÄ jorden skulle vara förödande, men det Àr mycket liten risk för att det kommer att hÀnda. Men eftersom resultatet skulle vara katastrofalt, bör vi ha folk i ett program som försöker upptÀcka dem, avvÀrja dem och lista ut vad man ska göra. Men vi fattar inte policybeslut baserat pÄ det faktum att vi kanske blir trÀffade av en asteroid. Vi bygger inte asteroid-sÀkra byggnader."

"Detsamma gÀller existentiell risk med AI. Vi borde ha nÄgra personer som arbetar med det, men vi borde inte skapa policys och reglera baserat pÄ nÄgot med sÄ lÄg sannolikhet."

Intelligens rÀcker inte

Varför tror du att risken Àr sÄ lÄg?

"Anledningen till att jag skiljer mig frÄn vissa personer, som Elon Musk och Eliezer Yudkowsky, Àr att de tenderar att överskatta rollen av intelligens, i att fÄ saker att hÀnda. De Àr killar som gillar att tÀnka, och de tror att tÀnkande Àr det viktigaste. För att fÄ saker att hÀnda i vÀrlden krÀvs intelligens, men det Àr inte det viktigaste. Det Àr inte de smartaste mÀnniskorna som fÄr saker att hÀnda i vÀrlden. Det Àr inte nödvÀndigtvis de smartaste personerna i ett rum som fÄr saker att gÄ framÄt. Intelligens ensamt Àr otillrÀcklig för att förÀndra vÀrlden. Du behöver ha uthÄllighet, du behöver ha empati och uppfinningsrikedom. Och alla möjliga andra saker."

Kevin Kelly lÀgger ocksÄ till en annan aspekt pÄ AI och existentiell risk. Viljan att överleva slÄr viljan att döda.

"Vad vi vet frĂ„n naturen Ă€r att överlevnadsviljan alltid slĂ„r rovdjurens vilja. De flesta rovdjur misslyckas i sina försök att döda ett byte, eftersom viljan att överleva Ă€r mycket större. Åtta, nio miljarder mĂ€nniskors vilja att överleva Ă€r otroligt mycket starkare Ă€n viljan att utrota dem. Och den viljan Ă€r oberoende av intelligens."

"Att bara vara riktigt smart innebÀr inte att du övervinna kan Ätta miljarder mÀnniskors vilja att överleva."

Hela intervjun finns pÄ YouTube

Kolla gÀrna pÄ hela intervjun med Kevin Kelly om hans nya bok, Excellent Advice for Living, om varför framtiden skapas av optimister, varför nu Àr bÀsta tiden att skapa nÄgot och varför du bör fokusera pÄ de största möjligheterna, inte de största problemen.

Missade inte heller Kevin Kellys essÀ, Ett manifest för optimism, hÀr pÄ Warp News.

💡 Kevin Kelly: Ett manifest för optimism
Kevin Kelly har grundat Wired och författat flera böcker, bland dem “The Inevitable”. För Warp News lĂ€gger han fram sina argument för optimism.

Mathias Sundin
Den arge optimisten


FĂ„ ett gratis veckobrev med
faktabaserade optimistiska nyheter


Genom att prenumerera bekrÀftar jag att jag har lÀst och godkÀnner personuppgifter och cookies policy.