Artificiell intelligens (AI) engagerar nu och det diskuteras här och var kring sannolikheten för att vi alla snart kommer att dö i kölvattnet av superintelligent AI. Hittills har tre spådomar varit förhärskande vad gäller automation: 1) automationen kommer att leda till (mass)arbetslöshet, 2) den kommer att frigöra oss från arbetets ok och 3) den leder till mänsklighetens förslavande där vi i bästa fall blir djurparksdjur (Bodén och Godhe 2020).
Just nu verkar ändå mer dystopiska framtidsutsikter dominera i debatten. Kanske bidrog AI-forskaren Max Tegmarks Sommarprat i P1 till det då han presenterar riskerna och möjligheterna med den snabba utvecklingen. Tegmark själv gör bedömningen att superintelligent AI antagligen leder till mänsklighetens undergång inom kort.
Andra forskare (till exempel Stephen Hawking) har också tidigare varnat för katastrofala följder för människans levnadsvillkor i händelse av en för snabb utveckling av AI. Gemensamt för dem är att de lyfter stora, existentiella faror med AI, av olika orsaker, i framtiden.
Samtidigt betonar andra forskare, exempelvis Aimee van Wynsberghe, Emily M. Bender och Timnit Gebru, att riskerna med AI är här redan nu. Konsekvenserna är kanske inte i nivå med att mänskligheten utplånas men ickedestomindre allvarliga och måste rättas till. De nämner bland annat en orättvis tillgång till AI beroende på ekonomi och region där somliga får de allra senaste chatbottarna medan andra får nöja sig med hallucinerande papegojor. Andra faror är en stor ekologisk prislapp då energislukande modeller tränas och implementeras. En tredje är diskriminering och förstärkning av fördomar om olika socioekonomiska grupper. För att nu bara nämna några.
Allting är mycket osäkert, och det är just det som lugnar mig, sa Too-ticki i boken Trollvinter. Sällan är utgången given i teknologisk utveckling och ingen har en kristallkula. Det finns klara risker med AI som kan landa i katastrof på individ-, mellanmänsklig och samhällelig nivå, både om 60 år men också idag. Potential har AI-stödd teknik också, även i lärande. Det är ju så att många verktyg och mycken kunskap kan användas till både gott och ont. Det är därför det behövs lagstiftning, reglering, transparens och samskapande kring vilken AI-stödd teknologi vi vill och kan ha, och till vilket (etiskt, organisatoriskt, ekonomiskt) pris.
AI har inte kontroll idag eftersom vi inte har superintelligent AI – än – utan det är någon som designar och implementerar den och de är ansvariga för den. Det är jätteviktigt att de som kan engagerar sig och funderar på syftet med, kontrollen över och ansvaret för AI-stödda lösningar och hur vi ska kunna designa dem ansvarsfullt och etiskt. Mycket är öppet och osäkert, och det innebär samtidigt att vi fortfarande kan påverka. Det lugnar lite.
Lämna ett svar