
Image generated using ChatGPT
Mielipide: Tekoäly sodankäynnissä – Teknologia-alan hiljainen siirtymä kohti taistelukenttää
Keskustelu autonomisista aseista, teknologian turvallisuuspolitiikasta ja tekoälyn etiikasta sotilasalalla on ollut jatkuvaa, mutta viime päivinä on tapahtunut merkittäviä kehitysaskelia. OpenAI:n, DeepSeekin ja jopa Spotifyn perustajan johtajat ilmoittivat uusista sopimuksista hallitusten kanssa puolustusteknologioiden ja strategisen tekoälyn parissa työskentelyyn
Tekoälyn käytön sotatoimissa ympärillä kiristyneet jännitteet ovat voimistuneet viime päivinä. Tänä kuukautena useat teknologiayritykset ilmoittivat uusista strategisista kumppanuuksista hallitusten kanssa puolustusprojektien kehittämiseksi. Ja kuten niin usein tekoälyn alalla, viime kuukausina on tapahtunut nopea muutos siinä, miten tekoälyä lähestytään sotilas- ja asekehityksessä.
Vain muutama päivä sitten OpenAI ja Yhdysvaltain hallitus ilmoittivat 200 miljoonan dollarin sopimuksesta kehittääkseen tekoälyllä toimivia puolustusvälineitä. Yksityiskohdat ovat edelleen vähäisiä, ja virkamiehet korostavat ”hallinnollisia toimintoja” pääasiallisena käyttökohteena.
Samaan aikaan ruotsalainen yrittäjä ja Spotifyn perustaja Daniel Ek on tukenut saksalaista Helsing-yhtiötä johtamalla 600 miljoonan euron investointikierrosta. Helsing, joka alun perin keskittyi ohjelmistoteknologiaan, on nyt siirtymässä droonien, sukellusveneiden ja lentokoneiden kehitykseen.
Reuters paljasti hiljattain, että DeepSeek auttaa Kiinan sotilas- ja tiedustelutoimintoja. Yhdysvaltojen korkea-arvoinen virkamies kertoi, että tekoälystart-up on auttanut ratkaisemaan haasteita Yhdysvaltojen ja Kiinan välisessä kauppasodassa, ja sen avoimen lähdekoodin malli auttaa Kiinan hallitusta valvontatoimissa.
Teknologiajätit tekevät yhteistyötä hallitusten kanssa tavoilla, joihin emme ole tottuneet—ainakaan näin julkisesti—ja he osallistuvat toimintoihin, jotka eivät perinteisesti ole kuuluneet heidän rooliinsa, kuten korkea-arvoiset teknologiajohtajat liittyvät Yhdysvaltojen armeijan reserviin.
Armeijan 201-osasto: Executive Innovation Corps on yritys rekrytoida huipputeknologia-alan johtajia palvelemaan osa-aikaisesti Armeijan reservissä vanhempina neuvonantajina, joiden tehtävänä on ohjata nopeita ja skaalautuvia teknologiaratkaisuja monimutkaisiin ongelmiin. ⤵️ https://t.co/95LjcCmbYe
— U.S. Army Reserve (@USArmyReserve) 24. kesäkuuta 2025
Mitä tapahtuu?
Puheen muutos
Teknologiayritykset siirtyivät lausahduksesta ”Emme koskaan käyttäisi tekoälyä sotilaallisiin tarkoituksiin” sanomaan ”Ehkä poistamme tämän kohdan hiljaa käytäntöjemme joukosta” ja lopulta toteamukseen ”Upeita uutisia, rakennamme nyt tekoälyllä toimivia aseita hallitukselle!”
Tai ainakin niin se näyttää tarkkaavaiselle havainnoijalle.
Ei ole kauaakaan, kun tekoälyn jätit olivat ylpeitä julistaessaan, etteivät koskaan tukisi sotilaallisia sovelluksia, mutta jotain muuttui. Google on hyvä esimerkki tästä.
Vuonna 2017 Yhdysvaltain puolustusministeriö käynnisti Project Mavenin, algoritmiin perustuvan sodankäynnin monitoimijoukkueen, joka on aloite tekoälyn integroimiseksi sotilaallisiin toimintoihin. Google oli alun perin mukana, mutta sisäiset protestit – jotka johtuivat työntekijöiden eettisistä huolenaiheista – saivat yrityksen vetäytymään tilapäisesti.
Viime vuonna nousi jälleen uusi pyrkimys kohti sotilaallisia toimintoja, ja melkein 200 Google DeepMind -työntekijää kehotti yritystä luopumaan sotilassopimuksista.
“Kaikki osallistuminen sotilas- ja asevalmistukseen vaikuttaa asemaamme eettisten ja vastuullisten tekoälyn johtajina, ja on ristiriidassa missiomme ja esitettyjen tekoälyperiaatteidemme kanssa,” kirjoittivat huolestuneet työntekijät.
Tällä kertaa Googlen vastaus oli odottaa ja hiljaa päivittää AI-etikettiohjeitansa poistamalla osan, jossa he sanoivat, etteivät koskaan kehittäisi AI-teknologiaa, joka voisi aiheuttaa vahinkoa. Google’n AI-johtaja, Demis Hassabis, selitti, että he vain sopeutuivat maailman muutoksiin.
Vaikka Googlen tapaus havainnollistaa AI:n ja sotilaskäytön välisen suhteen kehittymistä, se on vain yksi esimerkki laajemmasta teollisuudenlaajuisesta muutoksesta palvella puolustustavoitteita.
AI muokkaa sotilas- ja puolustussektoria
Project Mavenin käynnistäminen, tai kuten jotkut saattavat kutsua sitä, ”kun Yhdysvaltain hallitus ymmärsi suurten kielen mallien olevan äärimmäisen hyödyllisiä sodankäynnissä,” paljasti yhden syyn, miksi Yhdysvaltain hallitus on kiinnostunut tekoälystä.
Tekoälyjärjestelmien kyky käsitellä valtavia määriä tietoa, tunnistaa kohteita taistelukentällä ja analysoida kuvamateriaalia on erityisen houkutteleva puolustussektorilla.
Parannetut analyysit, yli ihmiskykyjen
Vuodesta 2022 lähtien sekä Ukraina että Venäjä ovat integroineet tekoälyjärjestelmiä sotilasoperaatioihinsa.
Ukrainan hallitus on tehnyt yhteistyötä teknologiayritysten kanssa ja käyttänyt useita strategioita hyödyntääkseen suuria kielimalleja mahdollisimman tehokkaasti. Se on hiljattain käsitellyt 2 miljoonaa tuntia taistelukenttäkuvaa—mikä vastaa 228 vuotta videota—kouluttaakseen tekoälymalleja sotilasprosesseja varten. Kuinka monta ihmistä tarvittaisiin analysoimaan näin paljon dataa?
”Tämä on ruokaa tekoälylle: Jos haluat opettaa tekoälyä, annat sille 2 miljoonaa tuntia (videota), siitä tulee jotain yliluonnollista,” selitti voittoa tavoittelemattoman digitaalijärjestelmän OCHI:n perustaja Oleksandr Dmitriev. Videomateriaali voi optimoida aseiden suorituskykyä ja auttaa parantamaan taistelutaktiikoita.
Toinen tekoälyjärjestelmä, Avengers, on Ukrainan puolustusministeriön innovaatiokeskuksen kehittämä tekoälyä hyödyntävä tiedustelualusta, joka käsittelee reaaliaikaisia videoita drooneista ja tunnistaa jopa 12 000 vihollisyksikköä viikoittain.
Droonit: Kuuma tuote taistelukentällä
Taistelukentällä käytettävät drone-lennokit, joita usein kutsutaan ”tappajakoneiksi”, ovat tällä hetkellä modernin sodankäynnin arvokkaimpia teknologioita, sillä ne ovat itsenäisiä, tarkkoja ja edullisia. Nämä robotit mahdollistavat sotaa käyvien valtioiden iskeä voimakkaasti ilman ihmispilottien vaarantamista ja vain murto-osalla perinteisistä kuluista.
Toukokuuhun mennessä Venäjä oli sijoittanut yli 3,000 Veter-kamikazedronea Ukrainaan. Nämä järjestelmät kykenevät tunnistamaan kohteet ja toteuttamaan hyökkäyksiä itsenäisesti.
Vain muutama päivä sitten, Ukrainan sotilaat ottivat käyttöön Gogol-M -dronin, ”äitilaiva”-dronin, joka voi matkustaa jopa 300 kilometriä, kuljettaa muita droneja, väistää tutkaa lentämällä matalalla ja skannata maaperää sen alla havaitakseen ja hyökätäkseen vihollisjoukkojen kimppuun.
The Guardianin mukaan jokainen isku tällä tehokkaalla dronilla maksaa noin 10 000 dollaria, kun taas hieman vanhemman teknologian ohjusjärjestelmän käyttö olisi maksanut 3 ja 5 miljoonan dollarin välillä.
Täysin uusi startup-yritys Theseus keräsi nopeasti 4,3 miljoonaa dollaria sen jälkeen, kun sen nuoret perustajat julkaisivat viestin sosiaalisen median alustalla X viime vuonna, kertoen rakentaneensa alle 500 dollarin drone-laitteen, joka voi lentää ilman GPS-signaalia.
suunnittelimme, 3D-tulostimme ja rakensimme alle 500 dollarin dronen, joka laskee GPS-koordinaatit ilman signaalia käyttämällä kameraa + Google Mapsia
24 tunnissa pic.twitter.com/8P2QoQMNbW
— Ian Laffey (@ilaffey2) 18. helmikuuta 2024
Vaikka drooniteknologia ei vielä olekaan yhtä tarkka kuin jotkut kehittäjät toivoisivat – etenkin säätä olosuhteet, jotka vähentävät sen ”näkyvyyttä” – se on osoittanut suurta potentiaalia alalla.
Vaikeasti saavutettava globaali yhteisymmärrys
Eivät vain sotaa käyvät maat tai maailman suurvallat kehittävät uusia tekoälyä hyödyntäviä teknologioita puolustukseen. Monet kansakunnat ovat integroineet tekoälyn kyberturvallisuustoimiin ja autonomisten aseiden kehittämiseen jo vuosien ajan. Tämä ei ole vain vuoden 2025 ilmiö.
Vuodesta 2014 lähtien Yhdistyneet Kansakunnat on yrittänyt sopia sääntelykehyksistä useiden maiden kanssa, mutta ei ole onnistunut.
Yli 90 maata kokoontui äskettäin YK:n yleiskokoukseen New Yorkissa keskustelemaan tekoälyn ohjaamien itsenäisten aseiden tulevaisuudesta ja niiden sääntelystä. He eivät päässeet yksimielisyyteen, ja yleiskokous on hyväksynyt vain vuoden 2023 sitomattoman päätöslauselman, joka varoittaa tarpeesta puuttua kuolemaan johtavien autonomaalisten asejärjestelmien (LAWS) kysymykseen.
Suuri keskustelu käy nyt siitä, tulisiko maailmanlaajuista viitekehystä toteuttaa vai ei. Monet maat ovat yhtä mieltä siitä, että tarvitsemme uusia globaaleja ohjeita, jotka voivat säännellä yksityisiä tekoälyyrityksiä ja valtioita. Toiset maat, kuten Yhdysvallat, Kiina, Venäjä ja Intia, haluavat säilyttää nykyiset kansainväliset lait ja luoda uusia itsenäisesti jokaiselle kansakunnalle heidän paikallisten tarpeidensa – tai etujensa – mukaan. Ja olemme juuri nähneet, kuinka kaoottista uusien tekoälysääntöjen luominen oli, jopa osavaltiotasolla Kaliforniassa.
Teknologiayritykset yhä enemmän mukana
Aktivistit, kuten Laura Nolan Stop Killer Robots -järjestöstä ovat huolissaan turvallisuustoimenpiteiden ja oikeudellisten kehysten puutteesta, jotka kontrolloisivat teknologiayritysten etenemistä autonomisten aseiden ja sotilaskäyttöön tarkoitetun tekoälyohjelmiston kehittämisessä.
”Emme yleensä luota teollisuuden itsevalvontaan … Ei ole mitään syytä, miksi puolustus- tai teknologiayritysten pitäisi olla luottamuksen arvoisempia,” sanoi Nolan Reutersille.
Vuonna 2024 tutkijat paljastivat, että kiinalaiset instituutiot ovat käyttäneet Metan avoimen lähdekoodin suurta kielenmallia Llamaa sotilastarkoituksiin. Pentagon teki sopimuksen Scale AI:n kanssa Thunderforge-projektin kehittämisestä—tekoälyprojekti, jonka tarkoituksena on modernisoida sotilaallista päätöksentekoa. Ja OpenAI teki yhteistyötä sotilasurakoitsija Andurilin kanssa—puolustusliittolainen Yhdysvaltojen, Iso-Britannian, Ukrainan ja Australian sotavoimille.
Puolustusalan startup-yritykset ovat kasvaneet myös Euroopassa, voittaen alaa paitsi uusien teknologioiden ja projektien kehittämisessä, myös huippuosaajien houkuttelemisessa.
Monimutkainen kehitys
Toinen tekijä, joka liittyy tiiviisti teknologiayritysten osallistumiseen kansallisiin puolustusstrategioihin, on nationalismi. Yhä useammat ohjelmistokehittäjät ja tekoälyasiantuntijat valitsevat työskennellä projekteissa, jotka vastaavat heidän ihanteitaan ja kulttuurisia juuriaan, sen sijaan että vain tavoittelisivat korkeampia palkkoja. Jotkut ovat jopa kieltäytyneet töistä Yhdysvalloissa, jotka tarjosivat kaksinkertaisen palkan – kuten Google tai OpenAI – liittyäkseen eurooppalaisiin hankkeisiin, kuten Helsing, esimerkiksi.
Politiikan, teknologian, nationalismin ja ideologisten taistelujen langat sekoittuvat yhä enemmän toisiinsa – usein jättäen etiikan, moraalin ja humanismin huomioimatta.
Viimeaikaiset tapahtumat tekevät selväksi, että teknologiajätit ovat ottamassa suurta roolia maailmanlaajuisissa sotilaallisissa ja kansallisen puolustuksen ponnistuksissa. Autonomisten aseiden ja sotaa tukevien teknologioiden kehitys etenee salamavauhdilla, samalla kun Yhdistyneiden kansakuntien pyrkimykset luoda kansainvälisiä sopimuksia ja säännöksiä ihmiskunnan tulevaisuuden turvaamiseksi näyttävät yhä enemmän vähäpätöisiltä.
Ilman kansainvälisiä sopimuksia – ja kunnianhimoisten teknologiayritysten tukemana, jotka hallitusten avustuksella kehittävät maailman tehokkaimpia aseita käyttäen tekoälyä – mitä tulevaisuus pitää sisällään ihmiskunnalle tulevina vuosina?