Tekoälyn kehitys ja kansallisen turvallisuuden tulevaisuus

Tekoäly on nykyään muotia. Suositussa mediassa tavalliset kyberjärjestelmät näyttävät melkein ohimenevän, kun kirjoittajat keskittyvät tekoälyyn ja loivat kuvia kaikesta tosielämän Terminator-roboteista hyvänlaatuisempiin kumppaneihin. Tiedustelupiireissä Kiinan suljetun kierron television, kasvojentunnistustekniikan ja muiden valvontajärjestelmien käyttö viittaa Big Brotherin saapumiseen – jos ei aivan vuonna 1984, niin vasta noin neljäkymmentä vuotta myöhemmin. Pentagonissa upseerien ja analyytikkojen legioonalaiset puhuvat tekoälykilpailusta Kiinan kanssa, usein aavistaen varoittaen, ettei Yhdysvalloilla ole varaa olla luokkansa toisella sijalla tällä nousevalla teknologian alueella. Poliittisissa piireissä ihmiset ihmettelevät tekoälyn etiikkaa – kuten sitä, voimmeko todella siirtää roboteille kyvyn käyttää tappavaa voimaa Amerikan vihollisia vastaan, olivatpa ne kuinka huonoja tahansa. Defence Innovation Boardin uusi raportti esittää laajat periaatteet tekoälyn tulevaisuuden eettisyydelle, mutta vain yleisellä tasolla, mikä jättää vielä paljon työtä tekemättä.





beaglen matka yhteenveto

Mitä se kaikki todella tarkoittaa, ja onko tekoäly todennäköisesti kaikki mitä se on keksitty? Mielestämme vastaus on monimutkainen ja että aiheeseen tulisi heittää vaatimaton annos kylmää vettä. Itse asiassa monien nykyään kuviteltujen tekoälyjärjestelmien kehittäminen kestää vuosikymmeniä. Lisäksi tekoäly sekoitetaan usein asioihin, joita se ei ole. Konseptin tarkkuus on välttämätöntä, jos haluamme käydä älykkäitä keskusteluja tekoälyn tutkimisesta, kehittämisestä ja sääntelemisestä tulevina vuosina.



Tekoälyjärjestelmät ovat pohjimmiltaan tietokoneita, jotka voivat oppia tekemään asioita yrityksen ja erehdyksen avulla jollakin mekanismilla, joka kertoo heille, milloin he ovat oikeassa ja milloin väärässä – kuten poimimalla valokuvista ohjuksia tai ihmisiä joukosta, kuten Pentagonin Project Maven - ja sitten soveltamalla oppimaansa tulevaisuuden tietojen diagnosoimiseen. Toisin sanoen tekoälyllä ohjelmiston rakentaa kone itse. Todelliset vanhanaikaiset ihmiset määrittävät etukäteen tietyn ongelman laajan laskennallisen lähestymistavan, mutta varsinainen algoritmi luodaan tietokoneen yritys-erehdysprosessin kautta, kun se nielee ja käsittelee valtavia tietomääriä. Koneen ajatusprosessi ei todellakaan ole niin hienostunut. Se kehittää tekovaistoja enemmän kuin älyä – tutkii valtavia määriä raakadataa ja selvittää, kuinka tunnistaa valokuvassa oleva kissan tai ohjuslaukaisimen ruuhkaisella moottoritiellä sen sijaan, että harjoittaisi syvällisiä ajatuksia (ainakin lähitulevaisuudessa).



Tämän määritelmän avulla voimme nopeasti tunnistaa tietyntyyppiset tietokonejärjestelmät, jotka eivät itse asiassa ole tekoälyä. Ne voivat olla tärkeitä, vaikuttavia ja ratkaisevia sotataistelijalle, mutta ne eivät ole tekoälyä, koska ne eivät luo omia algoritmejaan datasta ja useista iteraatioista. Siihen ei liity koneoppimista, toisin sanoen. Kuten kollegamme Tom Stefanick huomauttaa, edistyneiden algoritmien, jotka ovat olleet olemassa vuosikymmeniä (vaikka ne paranevat jatkuvasti tietokoneiden nopeutuessa), ja tekoälyn välillä on perustavanlaatuinen ero. On myös ero autonomisen asejärjestelmän ja tekoälyohjatun robotiikan välillä.



Esimerkiksi risteilyohjusta tai dronea ohjaavat tietokoneet eivät näytä tekoälyä. He noudattavat monimutkaista, mutta ennalta määrättyä käsikirjoitusta, käyttämällä antureita tietojen vastaanottamiseen ja sitten laittamiseen tietokoneisiin, jotka sitten käyttävät ohjelmistoa (ihmisen kehittämiä etukäteen) määrittääkseen oikean seuraavan liikkeen ja oikean paikan minkä tahansa aseiden räjäyttämiseen. Tämä on autonomiaa. Se ei ole AI.



Tai käyttää esimerkkiä lähempänä kotia useimmille ihmisille, kun älypuhelimesi suosittelee Google Mapsin tai Wazen kaltaista sovellusta nopeinta reittiä kahden pisteen välillä, tämä ei myöskään välttämättä ole tekoäly. Kahden paikan välillä on vain niin monta mahdollista reittiä. Kyllä, niitä voi olla kymmeniä tai satoja – mutta määrä on rajallinen. Sellaisenaan puhelimesi tietokone voi pohjimmiltaan tarkastella jokaista järkevää mahdollisuutta erikseen, ottamalla mukaan laajemmasta verkosta dataa, jonka monien muiden ihmisten puhelimet ottavat huomioon liikenneolosuhteet laskennassa. Mutta tapa, jolla matematiikka todella tehdään, on suoraviivainen ja ennalta määrätty.

Miksi tämä on tärkeää? Ensinnäkin sen pitäisi tehdä meistä vähemmän hengästyneitä tekoälyn suhteen ja nähdä se yhtenä osana laajempaa tietokonevallankumousta, joka alkoi 1900-luvun toisella puoliskolla ja vahvistui tällä vuosisadalla. Lisäksi sen pitäisi auttaa meitä näkemään, mikä saattaa olla tai ei ole realistista ja toivottavaa säännellä tulevan sodankäynnin alalla.



Esikuntapäälliköiden entinen varapuheenjohtaja kenraali Paul Selva on äskettäin väittänyt, että Yhdysvallat voi olla noin vuosikymmenen päässä kyvystä rakentaa autonominen robotti, joka voisi päättää, milloin ampua ja kenet tappaa. hän väitti myös, että Yhdysvalloilla ei ollut suunnitelmia rakentaa tällaista olentoa. Mutta jos ajattelee asiaa toisin, meillä on jollain tapaa ollut autonomisia tappamiskoneita jo sukupolven ajan. Tämä risteilyohjus, josta keskustelimme edellä, on ollut käytössä 1970-luvulta lähtien. Sillä on ohjeet lentää tiettyä reittiä ja sitten räjäyttää taistelukärkensä ilman, että silmukassa on ihmisiä. Ja 1990-luvulle mennessä tiesimme, kuinka rakentaa asioita, kuten skeet-ammuksia, jotka voisivat lentää taistelukentän yllä ja etsiä lämpimiä esineitä, kuten panssarivaunuja – käyttämällä ohjelmistoa päättääksemme, milloin ne sitten tuhotaan. Joten tappajakone oli käytännössä jo päättänyt itse.

revontulia aiheuttavat:

Vaikka kenraali Selvan terminaattoria ei rakennettaisi, robotiikalle annetaan joissakin tapauksissa todennäköisesti suurempi päätösvalta päättää, milloin voimaa käytetään, koska olemme käytännössä jo ylittäneet tämän kynnyksen. Tämä erittäin raskas aihe vaatii varmasti huolellista eettistä ja oikeudellista valvontaa, ja siihen liittyvät riskit ovat vakavia. Kuitenkin nopeus, jolla sotilaallisten operaatioiden on tapahduttava, luo kannustimia siihen, ettei henkilö ole päätöksentekolenkissä monissa taktisissa tilanteissa. Mitä tahansa Yhdysvallat pitääkin parempana, väkivaltaisen voiman automatisoitua käyttöä koskevat rajoitukset näyttäisivät myös suhteellisen vaikealta neuvotella (vaikka se olisi toivottavaa), kun otetaan huomioon Venäjän ja kenties muiden maiden todennäköinen vastustus sekä valtavia todentamisongelmia.



Esimerkiksi pienille roboteille, jotka voivat toimia parveina maalla, ilmassa tai vedessä, voidaan antaa tietty liikkumavara päättää, milloin ne käyttävät tappavia kykyjään. Kommunikoimalla keskenään ja käsittelemällä vihollista koskevia tietoja reaaliajassa, he voisivat keskittää hyökkäykset sinne, missä puolustus on heikoin taistelumuodossa, jota John Allen ja Amir Husain kutsuvat hypersodaksi sen nopeuden ja intensiteetin vuoksi. Muun tyyppiset parvet voisivat hyökätä pysäköityihin lentokoneisiin; pienetkin tarkasti räjäytetyt räjähteet voivat estää siivet tai moottorit tai aiheuttaa toissijaisia ​​ja paljon suurempia räjähdyksiä. Monilla mailla on valmiudet tehdä tällaisia ​​asioita seuraavan kahdenkymmenen vuoden aikana. Vaikka Yhdysvallat yrittäisi välttää tällaisten parvien käyttämistä tappaviin ja hyökkääviin tarkoituksiin, se voi päättää käyttää niitä puolustuskilpinä (ehkä Pohjois-Korean tykistöhyökkäystä Soulia vastaan) tai häirintäapuvälineinä tunkeutuvien lentokoneiden mukana. Kymmenen tuntia ja sata kilometriä lentää UAV:t, jotka maksavat nyt vain satoja tuhansia dollareita, ja nelikopterit, joiden kantama kilometri on enemmän tai vähemmän satoja dollareita, trendilinjat ovat selvät – ja monien käyttökelpoisuus. droonit järjestäytyneellä tavalla on ilmeistä.



Siellä missä sääntely saattaa olla mahdollista ja eettisesti pakottavaa, rajoittaa maantieteellistä ja ajallista tilaa, jossa tekoälyn tai muiden monimutkaisten algoritmien käyttämät aseet voivat käyttää tappavaa voimaa. Esimerkiksi edellä mainitut parvet voidaan ottaa käyttöön vain laivan lähellä tai taivaalla lähellä DMZ:tä Koreassa tai pienellä etäisyydellä sotilaslentokentästä. Saattaa myös olla järkevää kieltää koneiden antaminen päättää, milloin tappaa ihmisiä. Voi olla houkuttelevaa käyttää kasvojentunnistustekniikkaa tulevissa roboteissa, jotta ne metsästävät seuraavaa bin Ladenia, Bagdadia tai Soleimania valtavassa Lähi-idän kaupungissa. Mutta virheiden, hakkeroinnin ja monien muiden toimintahäiriöiden mahdollisuus voi olla liian suuri salliakseen tämän tyyppisen toiminnan. On luultavasti myös järkevää kieltää tekoälyn käyttö suuren ydinvoiman ydinvoiman johtamis- ja valvontainfrastruktuuria vastaan. Tällaiset yritykset voivat herättää niiden käytön tai menettää heiltä pelkoja tulevassa kriisissä ja siten lisätä ydinsodan riskejä.

Elämme tekoälyn alkuajoja. Emme voi vielä alkaa ennakoida, mihin se on menossa ja mitä se voi tehdä mahdolliseksi kymmenen, kahdenkymmenen tai kolmenkymmenen vuoden kuluttua. Mutta voimme työskennellä kovemmin ymmärtääksemme, mitä se todellisuudessa on – ja myös miettiä, kuinka asettaa eettiset rajat sen tulevalle kehitykselle ja käytölle. Sodankäynnin tulevaisuus, hyvässä tai pahassa, on kirjaimellisesti vaakalaudalla.