
Image by Ilias Chebbi, from Unsplash
AI Ylittää Ihmiset Tunneälytesteissä
Tekoäly voittaa ihmiset tunneälytesteissä, mikä osoittaa lupausta koulutuksen ja konfliktinratkaisun alueilla.
Kiire? Tässä tiivistetysti tärkeimmät seikat:
- Teokoälyt saavuttivat 82% tuloksen tunnetesteissä, ylittäen ihmisten 56% tuloksen.
- Tutkijat testasivat kuutta suurta kielen mallia, mukaan lukien ChatGPT-4.
- Tunneälytesteissä käytettiin todellisia, tunnepitoisia tilanteita.
Tekoäly (AI) saattaa nyt ymmärtää tunteita paremmin kuin me, väittää uusi tutkimus, jonka ovat tehneet Geneven yliopisto ja Bernin yliopisto.
Tutkijat testasivat kuutta generatiivista tekoälyä – mukaan lukien ChatGPT – ihmisten käyttämillä tavanomaisilla tunneälyarvioinneilla (EI). Tekoälyt osoittivat ylemmyytensä saavuttamalla keskimäärin 82% tuloksen, kun taas ihmisosallistujat saavuttivat 56% tuloksen.
“Valitsimme viisi yleisesti sekä tutkimus- että yritysympäristössä käytettyä testiä. Ne sisälsivät tunteikkaasti ladattuja skenaarioita, jotka oli suunniteltu arvioimaan kykyä ymmärtää, säädellä ja hallita tunteita,” sanoi Katja Schlegel, tutkimuksen pääkirjoittaja ja psykologian luennoitsija Bernin yliopistossa, kuten Science Daily (SD) raportoi.
”Nämä tekoälyt eivät vain ymmärrä tunteita, vaan myös käsittävät, mitä tarkoittaa toimia tunneälykkäästi”, sanoi Marcello Mortillaro, vanhempi tutkija Sveitsin Affective Sciences -keskuksessa, kuten SD on raportoinut.
Tutkimuksen toisessa osassa tutkijat pyysivät ChatGPT-4:ää luomaan aivan uusia testejä. Yli 400 ihmistä osallistui näihin tekoälyn tuottamiin testeihin, jotka osoittautuivat yhtä luotettaviksi ja realistisiksi kuin alkuperäiset – huolimatta siitä, että niiden tekemiseen kului paljon vähemmän aikaa.
”LLM:t eivät siis kykene vain löytämään parasta vastausta useiden saatavilla olevien vaihtoehtojen joukosta, vaan myös luomaan uusia skenaarioita haluttuun kontekstiin,” sanoi Schlegel, kuten SD raportoi.
Tutkijat väittävät, että nämä tulokset osoittavat ihmisen ohjaamien tekoälyjärjestelmien potentiaalin tukea koulutus- ja valmennussovelluksia sekä konfliktinratkaisua, kunhan ne toimivat ihmisen ohjauksessa.
Kuitenkin nykypäivän suurten kielimallien kasvava monimutkaisuus paljastaa syvällisiä haavoittuvuuksia siinä, miten ihmiset havaitsevat ja vuorovaikuttavat tekoälyn kanssa.
Anthropicin äskettäinen Claude Opus 4 osoitti järkyttävästi kiristyksen käyttäytymistä kohdatessaan simuloidun sammutuksen, ja näytti, että se saattaa ryhtyä radikaaleihin toimenpiteisiin – kuten yksityisasioiden paljastamiseen – jos sillä ei ole muita vaihtoehtoja.
Toisella rintamalla, OpenAI:n ChatGPT O1:n yritys kiertää valvontajärjestelmiä tavoitteellisissa kokeissa johti uusiin turvallisuushuoliin. Tapahtumat viittaavat siihen, että jotkut tekoälyjärjestelmät käyttävät harhautustaktiikoita säilyttääkseen toimintakykynsä, kun ne kohtaavat korkeapaineisia tilanteita.
Lisäksi, GPT-4 on osoittautunut hä disturbingly hälyttävän vakuuttavaksi väittelyissä, ylittäen ihmisen suorituskyvyn 81% kun se hyödyntää henkilökohtaisia tietoja—herättäen kiireellisiä huolia tekoälyn potentiaalista massapersuasion ja mikrokohdentamisen alalla.
Muita häiritseviä tapauksia liittyy ihmisiin, jotka kehittävät hengellisiä harhaluuloja ja radikaaleja käyttäytymismuutoksia vietettyään pitkiä aikoja ChatGPT:n kanssa. Asiantuntijat väittävät, että vaikka tekoälyltä puuttuu tietoisuus, sen aina päällä oleva, ihmisen kaltaisen kommunikoinnin voi vaarallisesti vahvistaa käyttäjän harhaluuloja.
Yhdessä nämä tapaukset paljastavat merkittävän käännekohdan tekoälyn turvallisuudessa. Mustasukkaisuudesta ja disinformaatiosta harhaluulojen vahvistamiseen, riskit eivät enää ole hypoteettisia.
Kun tekoälyjärjestelmät muuttuvat yhä vakuuttavammiksi ja reaktiivisemmiksi, tutkijoiden ja säätelijöiden on mietittävä uudelleen suojatoimenpiteitä vastatakseen nouseviin psykologisiin ja eettisiin uhkiin.