Sommarens hetaste AI-nyheter i korthet

AI kod

Vi vet att det cirkulerar mycket kring AI i flödena just nu. För att du ska slippa gå vilse i den snåriga nyhetsdjungeln har vi sammanställt några av sommarens mest läsvärda guldkorn. Är AI en bov som får studenter att fuska, en spridare av fake news och en bidragande faktor till “lärandeapokalypsen”? Och vad kan AI göra för att upptäcka cancer hos kvinnor?

Farorna med AI blir uppenbara i klassrummet
I sitt sommarprat varnade AI-forskaren Max Tengmark för att superintelligent artificiell intelligens kan bli mänsklighetens undergång när den väl blir verklighet. En skribent i Sydsvenskan menar att det verkliga hotet snarare ligger i hur vi använder oss av tekniken. Lättillgängliga AI-tjänster, som ChatGPT, har redan visat sig skapa problem i akademiska sammanhang, bland annat genom ökat fusk bland studenter. Många väljer att helt eller delvis överlåta sina skoluppgifter till AI, och på sikt riskerar vi att bli alltmer beroende av tekniken för grundläggande uppgifter såsom läsning, skrivande och kritiskt tänkande. Den så kallade “lärandeapokalypsen” är redan ett faktum. Därför är det helt avgörande att vi har en aktiv diskussion kring användningen av tekniken och dess påverkan på både utbildningsmiljöer och samhället i stort.

Lämna inte faktakollen åt ChatGPT
Läkartidningen genomförde nyligen experiment där man testade ChatGPT:s förmåga att hitta information om risken för djup ventrombos vid behandling med neuroleptika. Resultatet presenterades i en prydlig tabell med referenslista, men vid närmare anblick upptäcktes flera felaktigheter och “låtsas-fakta” i den genererade informationen. Vid påpekande försökte ChatGPT korrigera sina misstag men visade sig vara olämplig för seriösa medicinska sökningar. Tidningen konstaterar att AI:s förmåga att fabricera referenser och presentera dem som självklara fakta innebär att man fortsatt behöver vända sig till manuella databassökningar för att säkerställa tillförlitlig information. Man bör även komma ihåg att ChatGPT har en kunskapsavgränsning fram till september 2021, vilket innebär att tjänsten inte är medveten om nyare information.

Nytt initiativ från OpenAI ska främja ansvarsfull AI
Det potentiella hotet från framtidens superintelligenta artificiella intelligens väcker oro bland experter inom fältet. Geoffrey Hinton, ofta kallad AI:s gudfader, och Sam Altman, VD för OpenAI (företaget bakom ChatGPT) är två som har höjt ett varningens finger för teknikens många risker och dess potentiellt sett förödande konsekvenser för samhället. För att adressera farhågor som dessa har OpenAI etablerat en ny enhet vid namn Superalignment. Ett team bestående av ledande forskare och ingenjörer inom maskininlärning har fått i uppgift att utveckla ett system som ska kunna genomföra säkerhetskontroller på superintelligenta AI-system. Genom att införliva mänskliga värden och utveckla nödvändiga styrstrukturer strävar OpenAI efter att mildra farorna som kan uppstå från den enorma kraften som AI-tekniken förväntas besitta i framtiden.

AI-stödd screening upptäcker fler bröstcancrar
En ny svensk studie visar att AI-stödd mammografiscreening är ett säkert alternativ till dagens traditionella och tidskrävande metod med dubbelavläsning. Studien inkluderade 80 033 kvinnor som delades in i två grupper: en med AI-stöd och en som granskades av två radiologer. Det visade sig att AI-stödd screening upptäckte 20 % fler cancerfall med endast några få falska positiva, samtidigt som arbetsbördan för radiologer minskade med 44 %. Forskarna betonar att fler studier behövs för att bekräfta resultaten och optimera AI-stödd screening för bästa resultat. Men preliminära resultat tyder på att AI kan bidra till ett bättre och mer effektivt screeningprogram, vilket skulle kunna avlasta dagens hårt belastade radiologer.

Mer om studien: https://www.thelancet.com/journals/lanonc/article/PIIS1470-2045(23)00298-X/fulltext

Facebook
Twitter
LinkedIn