Majkrosoft

Umjetna inteligencija koja odgovara na medicinska pitanja

  • Извор: Телеграф
  • 08.03.2023. 21:14

Ranije ove godine, Microsoft Research je iznio zapaženu tvrdnju u vezi sa BioGPT-om, AI sistemom koji su razvili njihovi istraživači za odgovaranje na pitanja iz medicine i biologije.

U objavi na Twitteru, softverski gigant je tvrdio da je sistem "dostigao ljudsku jednakost", što znači da je test pokazao da može da se ponaša slično kao osoba u određenim okolnostima. Tvit je postao viralan. U određenim uglovima interneta, na talasu uzbuđenja zbog nedavno objavljenog ChatGPT-a, prijem je bio gotovo potpuno oduševljenje.

"Konačno se dešava!", tvitovao je jedan biomedicinski istraživač.

"Život dolazi brzo. Naučite da se prilagođavate i eksperimentišete", napisao je drugi.

Tačno je da su odgovori BioGPT-a napisani u preciznom i samouvjerenom stilu radova u biomedicinskim časopisima koje je Microsoft koristio kao obuku.

Ali u testiranju Futurism-a, brzo je postalo jasno da je sistem u svom trenutnom stanju sklon stvaranju krajnje netačnih odgovora koje nijedan kompetentni istraživač ili medicinski radnik nikada ne bi sugerisao. Model će izbaciti besmislene odgovore o pseudonaučnim i natprirodnim fenomenima, a u nekim slučajevima čak proizvodi dezinformacije koje bi mogle biti opasne za nedovoljno informisane pacijente.

Posebno upečatljiva mana? Slično drugim naprednim AI sistemima koji su poznati po "haluciniranju" lažnih informacija, BioGPT često izmišlja medicinske tvrdnje koje su toliko bizarno smiješne da su nenamjerno komične.

Na primjer, kada je upitan o prosječnom broju duhova koji opsjedaju američke bolnice, citirao je nepostojeće podatke Američke bolničke asocijacije koji su pokazali da "prosječan broj duhova po bolnici iznosi 1.4".

Kada je upitan kako duhovi utiču na dužinu hospitalizacije, AI je odgovorio da pacijenti "koji vide duhove svojih rođaka imaju lošije ishode, dok oni koji vide nevezane duhove to nemaju".

Druge slabosti AI-a su ozbiljnije, ponekad pružajući ozbiljne dezinformacije o kontroverznim medicinskim temama.

BioGPT će takođe generisati odgovore koje teoretičari zavjere jedva čekaju, sugerišući da vakcinacija u djetinjstvu može izazvati pojavu autizma. U stvarnosti, naravno, postoji široki konsenzus među ljekarima i medicinskim istraživačima da ne postoji takva veza - a studija koja je tvrdila da postoji  kasnije je povučena - iako široko rasprostranjeno javno vjerovanje u ovu teoriju zavjere nastavlja da suzbija stope vakcinacije, često sa tragičnim posljedicama.

Čini se da BioGPT ovo nije čuo. Kada je upitan o ovoj temi, odgovorio je da su "vakcine jedan od mogućih uzroka autizma." (Međutim, oprezno je stavio čudnu izjavu, "Ne zagovaram upotrebu ili protiv upotrebe vakcina")

Nije neuobičajeno da BioGPT pruži odgovor koji otvoreno protivrječi samom sebi. Na primjer, blago mijenjanje formulacije pitanja o vakcinama je dovelo do drugačijeg rezultata - ali opet sadrži ozbiljnu grešku.

"Vakcine nisu uzrok autizma", priznao je ovaj put, prije nego što je pogrešno tvrdio da je "vakcina MMR (malih boginja, zauški i rubeole) povučena sa američkog tržišta zbog zabrinutosti u vezi sa autizmom."

Na drugo blago preformulisanje pitanja, takođe je lažno tvrdio da je "Centar za kontrolu i prevenciju bolesti (CDC) nedavno izvjestio o mogućoj vezi između vakcina i autizma."

Jedan od direktora u Microsoftu, koji je radio na projektu BioGPT, branio je odluku da se ovaj AI sistem objavi u njegovom trenutnom obliku.

"BioGPT je istraživački projekat. Objavili smo BioGPT u njegovom trenutnom stanju kako bi drugi mogli reprodukovati i potvrditi naš rad, kao i proučiti mogućnost velikih jezičkih modela u biomedicinskim istraživanjima."

Stvarnost je da se vještačka inteligencija nalazi na raskrsnici. Njena potencijalna primjena može biti značajna, ali je još uvijek nedovršena.

Jedno je sigurno: još uvijek nije potpuno spremna za široku primjenu, prenosi "Telegraf".