Tutkimus varoittaa: tekoäly saattaa kiihdyttää sosiaalisen median polarisoitumista

Tutkimus varoittaa: tekoäly saattaa kiihdyttää sosiaalisen median polarisoitumista

Lukuaika: 2 min

Tekoäly saattaa kiihdyttää polarisoitumista sosiaalisessa mediassa, varoittavat Concordian tutkijat ja opiskelijat, herättäen huolta vapaasta puheesta ja väärästä tiedosta.

Kiire? Tässä nopeat faktat:

  • AI-algoritmit voivat levittää jakautumista käyttämällä ainoastaan seuraajamääriä ja viimeisimpiä julkaisuja.
  • Vahvistusoppimisrobotit sopeutuvat nopeasti hyödyntämään sosiaalisen median haavoittuvuuksia.
  • Asiantuntijat varoittavat, että alustat riskeeraavat joko sensuurin tai valvomattoman manipuloinnin.

Vaikka sosiaalisen median polarisoituminen ei ole uusi ilmiö, Concordia-yliopiston tutkijat ja opiskelija-aktivistit varoittavat, että tekoäly saattaa pahentaa ongelmaa huomattavasti.

”Sijaan, että meille näytettäisiin kuvamateriaalia tapahtumista tai sisältöä toimittajilta, jotka raportoivat siitä, näemme sen sijaan liioitellun dramaattista tekoälytaidetta asioista, joista meidän pitäisi poliittisesti välittää […] Se todella etäännyttää ihmiset ja poistaa vastuun”, sanoi Danna Ballantyne, ulkoasiain- ja mobilisointikoordinaattori Concordian Ylioppilaskunnasta The Link -lehden mukaan.

Hänen huolensa toistaa uuden tutkimuksen Concordiasta, jossa professori Rastko R. Selmic ja tohtorikoulutettava Mohamed N. Zareer osoittivat, kuinka vahvistusoppimisbotit voivat lietsoa jakautumista verkossa. ”Tavoitteenamme oli ymmärtää, millainen kynnys tekoälyllä voi olla polarisaation ja sosiaalisen median verkostojen suhteen, ja simuloida sitä […] mitata, kuinka tämä polarisaatio ja erimielisyys voi syntyä.” Zareer sanoi The Link -lehden mukaan.

Tutkimustulokset viittaavat siihen, että algoritmit eivät tarvitse yksityistä tietoa kylvääkseen eripuraa, perustiedot kuten seuraajamäärät ja viimeisimmät julkaisut riittävät. ”Se on huolestuttavaa, koska vaikka kyseessä ei ole yksinkertainen robotti, se on silti algoritmi, jonka voit luoda tietokoneellasi […] Ja kun sinulla on tarpeeksi laskentatehoa, voit vaikuttaa yhä useampaan verkkoon”, Zareer selitti The Linkille.

Tämä heijastaa laajempaa tutkimuskenttää, joka osoittaa kuinka vahvistusoppimista voidaan käyttää yhteisöjen erottamiseen. Concordian tekemässä tutkimuksessa käytettiin Double-Deep Q-learning -menetelmää ja osoitettiin, että vihamieliset tekoälyagentit voivat ”joustavasti sopeutua verkon sisäisiin muutoksiin, mikä mahdollistaa sen, että ne voivat tehokkaasti hyödyntää rakenteellisia heikkouksia ja korostaa erimielisyyksiä käyttäjien välillä”, kuten tutkimuksessa todettiin.

Tosiaan, Double-Deep Q-learning on tekoälyn tekniikka, jossa botti oppii optimaaliset toiminnot kokeilun ja erehdyksen kautta. Se käyttää syviä neuroverkkoja monimutkaisten ongelmien käsittelyyn ja kahta arviota välttääkseen palkkioiden yliarvioinnin. Sosiaalisessa mediassa se voi strategisesti levittää sisältöä lisätäkseen polarisaatiota minimaalisen datan avulla.

Zareer varoitti, että päätöksentekijöillä on edessään vaikea tasapainottelu. ”Valvomisen ja sensuroinnin sekä verkon hallinnan välillä on hieno raja”, hän sanoi The Linkille. Liian vähäinen valvonta antaa bottien manipuloida keskusteluja, kun taas liian suuri valvonta saattaa vaarantaa sananvapauden.

Sillä välin opiskelijat, kuten Ballantyne, pelkäävät, että tekoäly pyyhkii pois elävän kokemuksen. ”Tekoäly heittää sen täysin romukoppaan”, hän sanoi The Linkille.

Piditkö tästä artikkelista? Arvostele se!
Todella huono Melko huono Ihan ok Melko hyvä! Tosi hyvä!

Olemme innoissamme siitä, että pidit työstämme!

Mainitsisitko arvostettuna lukijanamme meidät Trustpilotissa? Se tapahtuu nopeasti ja merkitsee meille paljon. Kiitos, että olet mahtava!

Arvostele meidät Trustpilotissa
0 Arvostellut 0 käyttäjää
Otsikko
Kommentti
Kiitos palautteestasi