
Image by Dr. Frank Gaeth, from Wikimedia Commons
Ruotsin pääministeriä arvostellaan ChatGPT:n käytöstä hallituksen päätöksenteossa
Ruotsin pääministeri Ulf Kristersson kohtasi kritiikkiä myönnettyään käyttäneensä ChatGPT:tä ideoidakseen hallituksen päätöksiä.
Kiire? Tässä nopeat faktat:
- Ruotsin pääministeri myöntää käyttäneensä ChatGPT:tä poliittisessa päätöksenteossa.
- Hänen tiedottajansa vakuuttaa, ettei herkkiä tietoja jaeta tekoälytyökalujen kanssa.
- Kriitikot sanovat tekoälyn käytön hallinnossa olevan vaarallista ja epädemokraattista.
Ruotsin pääministeri Ulf Kristersson kohtaa yhä kasvavaa julkista kritiikkiä paljastettuaan käyttävänsä ChatGPT:tä ja LeChatia virallisen päätöksenteon apuna.
”Käytän sitä itse melko usein. Jos ei muuten, niin saadakseni toisen mielipiteen”, Kristersson sanoi, kuten The Guardian raportoi. ”Mitä muut ovat tehneet? Ja pitäisikö meidän ajatella täysin päinvastoin? Tällaisia kysymyksiä.”
Hänen lausuntonsa herätti vastareaktion, ja Aftonbladet syytti häntä “oligarkkien AI-psykoosiin” lankeamisesta, kuten The Guardian raportoi. Kriitikot väittävät, että AI:n varaan politiikan arviointi on sekä holtitonta että epädemokraattista.
”Meidän on vaadittava, että luotettavuus voidaan taata. Emme äänestäneet ChatGPT:lle”, sanoi Virginia Dignum, vastuullisen tekoälyn professori Umeå-yliopistossa.
Kristerssonin tiedottaja, Tom Samuelsson, vähätteli kiistaa sanoen: ”Luonnollisesti sinne ei päädy turvallisuusluokiteltua tietoa. Sitä käytetään ennemmin suuntaa antavana”, kertoi The Guardian.
Mutta teknologia-asiantuntijat sanovat, että riskit ulottuvat datan herkkyyttä pidemmälle. Karlstadin yliopiston professori Simone Fischer-Hübner kehottaa välttämään ChatGPT:n ja vastaavien työkalujen käyttämistä virallisissa työtehtävissä, kuten The Guardian on huomauttanut.
Tekoälytutkija David Bau on varoittanut, että tekoälymalleja voidaan manipuloida. ”He näyttivät tavan, jolla ihmiset voivat salakuljettaa omat piilotetut agendansa koulutusdataan, mikä olisi hyvin vaikea havaita.” Tutkimus osoittaa 95%:n onnistumisasteen harhauttaessa tekoälyjärjestelmiä muistin injektoinnilla tai ”Rules File Backdoor” -hyökkäyksillä, herättäen pelkoja näkymättömästä puuttumisesta poliittiseen päätöksentekoon.
Lisäriskejä aiheutuu tekoälyn mahdollisuudesta heikentää demokratiaa. Tuore tutkimus varoittaa, että tekoälyjärjestelmät lainvalvonnassa keskittävät valtaa, vähentävät valvontaa ja saattavat edistää autoritarismia.