
JRdes/Shutterstock
Tekijä:Max Miller/9. huhtikuuta 2023 klo 14.44 EST
Tekoälyn nousu tapahtui niin nopeasti, että se saattoi tapahtua yhdessä yössä. Vuosi sitten tekoälykuvageneraattorit olivat pelkkiä uteliaisuutta, kun taas AI-chatbotit kamppailivat johdonmukaisten lauseiden tuottamiseksi. Nykyään tekoäly voi kirjoittaa kokonaisia artikkeleita. Microsoft on jo sisällyttänyt version OpenAI:n GPT-4:stä Bingiin, kun taas Google lanseeraa pehmeästikilpailija nimeltä Bard.
Näillä uusilla teknologioilla on uskomaton potentiaali mullistaa elämämme tavoilla, joista tieteiskirjallisuus on vain haaveillut.Tekoäly näyttää varmasti olevan samaa mieltä. Kokemuksemme mukaan, jos kysyt ChatGPT:ltä teknologian tulevaisuudesta, se kertoo, että tekoäly vie valtavia harppauksia eteenpäin kohti teknoutopiaa.
Kuten missä tahansa häiritsevässä tekniikassa, on piilotettuja vaaroja, joista emme todennäköisesti vielä ymmärrä tai edes kuvittele. Mutta suuri osa tekoälyä koskevasta keskustelusta keskittyy teknologian tulevaan kehitykseen ja siihen, mitä se voisi tehdä, jos se etenee kohti todellista tuntevaa älykkyyttä. Nämä ovat tärkeitä harkitsemista, mutta vaikka jokainen teknologiayritys lopettaisi tekoälyteknologioidensa kehittämisen, nämä tekniikat voivat jo aiheuttaa paljon kauhistuttavia ongelmia nykyisessä muodossaan.
Tässä on kymmenen painajaisskenaariota, jotka nykyisen sukupolven tekoäly voisi saada aikaan syväväärennöksistä osakemarkkinoiden manipulointiin ja kansainvälisiin sodista dystooppisiin valvontavaltioihin.
Kaikki SlashGearin sisältö on 100 % alkuperäistä, ja sen ovat kirjoittaneet ja editoineet todelliset elävät ihmiset. Emme käytä AI-chat-työkaluja sisällön luomiseen, ideointiin tai luonnostelemiseen.
Syväväärennökset voivat johtaa poliittiseen väärään tietoon

Yeti studio/Shutterstock
Tällä hetkellä saatavilla olevat tekoälymallit voivat tuottaa realistisesti minkä tahansa kuvan tai äänen ja pystyvät yhä useammin luomaan kokonaisia videoleikkeitä. Realistisesti katsoen, on vain ajan kysymys, milloin huono näyttelijä käyttää näitä kykyjä nostaakseen vääriä syytöksiä poliittista vihollista vastaan. Kuvittele tekoälyn tuottaman poliittisen väärän tiedon tulva, jota joudumme seulomaan läpi tulevissa presidentinvaaleissa.
Viime viikkoina, sen jälkeen kun AI Midjourney julkaisi merkittävän päivityksen, on levinnyt laajalti kuvia mm.paavi pukeutunut takki ylläänsopii rap rojalti- jaDonald Trumpiin puututaanja poliisi pidätti. Molemmat luotiin vitseiksi, eikä niiden koskaan ollut tarkoitus huijata ketään. Silti monet käyttäjät välittivät niitä herkkäuskoisesti sosiaalisessa mediassa hyötymättä kuvien alkuperäisestä kontekstista.
Tekoäly on jo niin virhealtis, että sen tuottaman väärän tiedon ei tarvitse olla tahallista hämmentääkseen ihmisiä. ChatGPT on jo olluthaastaa oikeuteen kunnianloukkauksesta Australiassa, jossa chatbot syytti väärin melbournelaista poliitikkoa korruptiosta.
Merkittävin vaara tässä ei ole pelkästään se, että väärennetyt kuvat leviävät laajalti yleisön keskuudessa, mikä olisi jo itsessään tarpeeksi haitallista, vaan pikemminkin se, että astumme oudon uuteen maailmaan, jossa ei voi uskoa valokuvaa, videota tai äänitallennusta. . Poliitikot ja muut virkamiehet voivat tuomita kaikki todisteet väärinkäytöksistä väärennöksiksi, kun taas toimittajat, jotka eivät ole erityisen tekniikkataitoja, kamppailevat erottaakseen todellisuuden keksinnöstä.
Syväväärennökset voivat johtaa kansainväliseen konfliktiin

M-Production/Shutterstock
Kotimaassa tekoälyn vaikutus politiikkaan voi olla tarpeeksi huono. Mutta kuvittele, jos Venäjän kaltainen roistokansa tekisi Ukrainan presidentistä Volodymyr Zelenskyistä väärennetyn videon, jossa hän kehottaa kansaansa antautumaan. Jos se kuulostaa joltain, mitä ei voinut tapahtua, tässä on huonoja uutisia: se jo tapahtui (viaNPR). Onneksi syväväärennös tunnistettiin nopeasti ja siitä ei aiheutunut juurikaan haittaa, mutta se ei aina pidä paikkaansa.
Raportti osoitteestaBrookings InstitutionDeepfakeista ja kansainvälisistä konflikteista varoitetaan: "Deepfakeja voidaan käyttää monenlaisiin tarkoituksiin, mukaan lukien armeijan johtajien käskyjen väärentäminen, hämmennyksen kylväminen yleisön ja asevoimien keskuudessa sekä legitiimiyden antaminen sodille ja kapinoille." Vaikka raportissa todetaan, että useimmat näistä ponnisteluista todennäköisesti epäonnistuvat, jopa yksikin menestys voi olla tuhoisa kansainvälisen järjestyksen vakaudelle. Emme ehkä ole kaukana ensimmäisestä tekoälyn inspiroimasta vallankaappauksesta tai sodasta.
Lainvalvontaviranomaiset voisivat käyttää tekoälyä luodakseen dystooppisen valvontatilan

Gorodenkoff/Shutterstock
Elokuvassa "Minority Report" poliisilaitos pidättää ihmisiä ennen kuin rikos on tehty luottaen olentoihin, jotka näkevät tulevaisuuden. Vaikuttaa itsestään selvältä, että tällainen skenaario olisi eettisesti kamala ja johtaisi moniin laittomiin pidätyksiin. Ja silti jotkut lainvalvontayksiköt vuotavat sylkeä ajatuksesta.
Nykyään, jos sinua syytetään rikoksesta, kohtalosi päätetään tietokoneella monilla lainkäyttöalueilla Yhdysvalloissa. Kuten huomauttiMIT Technology Review, sen, onko paikalla poliiseja, jotka tekevät pidätyksen, määrittää PredPol-niminen ohjelma, joka yrittää ennustaa, missä rikos todennäköisimmin tapahtuu aikaisempien pidätysten perusteella. Kun epäilty on nostettu syytteeseen, tuomioistuimet käyttävät COMPAS-nimistä työkalua määrittääkseen esitutkinnan vapauttamisen ja tuomion. Poliisi käyttää myös kasvojentunnistusta yhä enemmän,Marshall-projektilöytyi.
Nämä jo olemassa olevat työkalut voivat helposti johtaa liialliseen poliisitoimintaan köyhillä tai ei-valkoisilla alueilla, korkeampiin tutkintavankeuksiin ja ankarampiin tuomioihin, mikä lisää entisestään rotu- ja sukupuolieroja oikeusjärjestelmässämme.NPR). Mutta nyt, koska sen käyttöä estävää lainsäädäntöä ei ole, tekoäly uhkaa olla jatkuvasti kasvava rooli lainvalvonnassa. Ja tämä lainsäädäntö voi olla ratkaisevan tärkeää, jotta vältytään yhä autoritaarisemmilta vallan väärinkäytöltä.
Tekoälymallien harha voi johtaa lisää epätasa-arvoon

3rdtimeluckystudio/Shutterstock
Vuonna 2014 Amazon rakensi tekoälytyökalun auttamaan palkkaamisessa. Ohjelmassa oli yksinkertainen tehtävä: käydä läpi työhakemukset ja valita parhaat hakijat. Mutta vuoteen 2015 mennessä verkkokaupan jättiläinen tajusi, että ohjelma oli puolueellinen miesehdokkaita kohtaan. Se vähensi ansioluetteloita, joissa oli sana "naiset", sekä kaikki koulut, jotka ovat historiallisesti naisopistoja. Ongelmana oli, että Amazonilla, kuten suurella osalla teknologia-alaa, oli jo enemmistö miespuolisista työntekijöistä. Kun tekoäly koulutti itsensä olemassa olevan työntekijäjoukon perusteella, se oppi suosimaan miesehdokkaita. Amazon sulki ohjelman vuonna 2018 (viaReuters).
Epäonnistunut palkkaaminen tekoäly on esimerkki olemassa olevista lihaa ja verta -harhoista, jotka vaikuttavat tekoälyyn koulutustietoaineistonsa kautta. Syrjintä on yksi nykyisen tekoälyn suurimmista ja tunnetuimmista vaaroista, ja sitä on tunnetusti vaikea välttää. OpenAI:n kaltaiset yritykset ovat yrittäneet korjata ongelman varustamalla ChatGPT:n itsesensuuriohjeilla. Chatbotin saattaminen kuitenkin sylkemään rotujakoa ilman suuria kehotuksia (viaThe Intercept) on edelleen mahdollista.
Koska tämä tekniikka tunkeutuu lukuisiin muihin tuotteisiin, on mahdotonta sanoa, kuinka sen juurtuneet ennakkoluulot vaikuttavat sen toimintaan. Esimerkiksi poliisivoimat, joista monet ovat jo kärsineet systeemisestä rasismista, ovat innokkaita käyttämään tekoälyä lainvalvontatarkoituksiin. Amazonin palkkaaminen voi olla varoitus paljon pahemmasta tulevasta.
Hakuvastausten hallusinaatiot voivat saada ihmiset vahingoittamaan itseään

Rokas Tenys/Shutterstock
Yksi merkittävimmistä ongelmista nykyisissä kielimalleissa on niiden taipumus "hallusinaatioiksi" kutsuttuihin, kun tekoäly sylkee vääriä tietoja. Joskus hallusinaatiot ovat vain omituisia, kuten silloin, kun ChatGPT väittää tietyssä puhelinmallissa ominaisuuksia, joita sillä ei ole. Mutta jotkut ovat vähemmän hyvänlaatuisia, ja jos käyttäjä ottaa tekoälyn neuvoja nimellisarvossaan, se voi johtaa todelliseen vahinkoon.
Kuvittele, että Bing vastaa virheellisesti, kun kysytään, kuinka kauan kanaa voidaan jättää tiskille ja sanoo, että se säilyy tuoreena jopa viikon. Seurauksena voi olla, että käyttäjä altistuu ruokamyrkytykselle tai salmonellalle. Tai vielä kauheampaa, kuvitella ChatGPT:n häiriötä, kun joku kysyy, kuinka käsitellä itsemurha-ajatuksia, mikä saa heidät riistämään henkensä. Tämä yksinkertainen virhe voi johtaa traagisimpiin lopputuloksiin.
Vaikka on helppoa olettaa, ettei kukaan sokeasti luottaisi tekoälyyn, on epäselvää, ymmärtääkö suuri yleisö kuinka virhealttiita nykyiset tekoälymallit ovat. Tietyt väestöryhmät, kuten eläkeläiset tai kognitiiviset vammaiset, voivat olla erityisen herkkiä hyväksymään tuotoksensa nimellisarvolla. Todennäköisesti on vain ajan kysymys, milloin jotain valitettavaa tapahtuu tekoälyn luotettavuuden väärinymmärryksessä.
Jos sinulla tai jollain tuntemallasi on itsemurha-ajatuksia, soita National Suicide Prevention Lifeline -palveluun soittamalla numeroon 988 tai soittamalla numeroon 1-800-273-TALK (8255).
AI-kaupankäyntibotit voivat kaataa osakemarkkinat

Phonlamaiphoto/Getty Images
Tekoälyjärjestelmien kyvykkyyden lisääntyessä osakemarkkinoilla bot-kaupankäynti on lisääntynyt valtavasti. Nämä robotit käyttävät monimutkaisia algoritmeja panostaakseen osakkeisiin, ostaen ja myydäkseen asiakkaidensa puolesta markkinoiden vaihteluiden perusteella.
Mutta nämä robotit ovat suhteellisen yksinkertaisia, ja ne luottavat jos-niin -logiikkaan tehdäkseen kauppansa (välilläInvestopedia), joten ne on helppo ennustaa. Nykyisen sukupolven tekoälymallit ovat paljon monimutkaisempia ja siksi arvaamattomia. Jos kauppiaat käyttävät niitä laajassa mittakaavassa, ne voivat helposti aiheuttaa valtavia shokkeja markkinoille. Kuvittele esimerkiksi, että monet kauppiaat käyttävät tekoälyalustaa, joka päättää hallusinaatioiden perusteella, että Kelloggin osakkeet ovat romahtamassa, ja myy tämän omaisuuden kaikille käyttäjilleen samalla kun he ostavat osakkeita General Millsista, mikä kaataa aamiaismuromarkkinat välittömästi kaaokseen.
Vaikka tämä on yksi vähemmän todennäköisimpiä skenaarioita – mikä tahansa vihje tällaisesta kriisistä saa todennäköisesti sääntelyelinten nopean vastauksen –, jotkut toimijat yrittävät melkein epäilemättä sitä jossain mittakaavassa. Voimme vain toivoa, että kyseiset sääntelyvirastot valmistautuvat siihen nyt.
Tekoäly voi tehdä Internet-haun hyödyttömäksi

Rokas Tenys/Shutterstock
Bing pääsi otsikoihin integroimalla ChatGPT-version hakukoneeseensa. Kukaan ei odottanut, kuinka järkyttynyt Google olisi, kun Google Bardin ilmoitus seurasi tiiviisti. Nämä yritykset uskovat, että tekoäly on haun tulevaisuus, mutta se voi yhtä nopeasti olla loppu.
Web-sivustot, jotka luottavat sivuvierailuihin mainostulojen saamiseksi, voivat nyt löytää sisällön ryöstetyltä robotilta, joka toimittaa tiedot suoraan käyttäjille ja katkaisee heidän ensisijaisen tulonsa. Tämä johtaisi digitaalisen mainonnan markkinoiden massiiviseen romahtamiseen. Pienemmät sivustot putosivat ensimmäisinä, mutta jättiläiset, kuten Facebook, voisivat mennä niiden mukana. Kun tätä kysyttiin haastattelussaThe Verge, Microsoftin toimitusjohtaja Satya Nadella ei puhunut juurikaan tällaisen skenaarion estämisestä. Hän kuitenkin sanoi, että Microsoft oli harkinnut sitä.
Vaikka hakukoneiden ydintoiminnot säilyvät ennallaan tämän muutoksen aikana, generatiivinen tekoäly voi silti tehdä niistä hyödyttömiä. Internet on jo täynnä roskapostia sisältäviä SEO-kopioita, minkä vuoksi sinun täytyy selata loputtomia, enimmäkseen keksittyjä tarinoita perheen resepteistä ennen kuin voit lukea Googlettamasi reseptin. Eikä kukaan ihminen voi osua SEO-kohteisiin tekoälyn tarkkuudella, mikä tarkoittaa, että tämä roskateksti voi lisääntyä nopeasti Internetissä ja pilata hakutuloksiasi.
On epäselvää, kuinka hakuyritykset reagoisivat tällaiseen kriisiin, varsinkin kun ne näyttävät sitoutuneen välittämään samaa teknologiaa, joka voisi aiheuttaa sen.
Tekoäly voi tehdä Internetistä käyttökelvottoman

Giulio Benzin/Shutterstock
Generatiivisia AI-kielimalleja koulutetaan parhaillaan koko internetissä, joka on pääasiassa tekstipohjaista. Nämä mallit sylkevät sitten uutta tekstiä, joka on näennäisesti omaa. Kun äskettäin luotua tekoälytekstiä on riittävästi, ei välttämättä mene kauan, kun suurin osa Internetistä on täynnästokastiset papukaijat.
Ongelma on jo nostamassa päätään.Neil Clarke, kuuluisan Clarkesworld-scifi-lehden toimittaja, on jo nähnyt tekoälyn luomien tarinoiden lisääntyneen valtavasti, mikä on pakottanut hänet seulomaan lukemattomia koneiden kirjoittamia tarinoita ja hidastanut vasteaikaa indeksointiin.
On jo tarpeeksi vaikeaa käyttää Internetiä ilman botteja ja SEO-roskapostia sekä runsaasti todellisten ihmisten luomaa älytöntä tekstiä. Lisää tähän sekoitukseen lähes ääretön määrä tekoälytekstiä (ja väistämätön määrä roskapostia, joka syntyy osana tätä yhtälöä), ja voi tulla niin vaikeaksi löytää verkosta mitään arvokasta, että koko internet muuttuu pohjimmiltaan käyttökelvottomaksi. Marylandin yliopiston digitaalisten opintojen professori Matthew Kirschenbaum varoittaa juuri tästä skenaariostaAtlantti, kirjoittaa: "Kaikki nämä ilmiöt, puhumattakaan puutarhan monimuotoisesta Viagra-roskapostista, joka ennen oli niin haitallista, ovat tekstin toimintoja - enemmän tekstiä kuin voimme kuvitella tai ajatella, vain pienimmät siivut siitä on koskaan nähty. ihmisen silmämunat, mutta se kuitenkin tukkii palvelimia, tietoliikennekaapeleita ja datakeskuksia."
Tekoäly voi kiihdyttää ilmastonmuutosta

NicoElNino/Shutterstock
Ihmiskunta kohtaa ilmastonmuutoksen eksistentiaalisen uhan, ja aikamme on loppumassa hiilidioksidipäästöjen kääntämiseen ennen kuin pahin skenaario toteutuu. Tekoäly, joka pystyy ymmärtämään monimutkaisia ja erilaisia datapisteitä, voisi olla tärkeä työkalu uusien ratkaisujen innovoinnissa katastrofin pahimman estämiseksi. Jo nyt se voi auttaa tehostamaan kokonaisia yrityksiä energiatehokkaammin tunnistamalla tuhlaavat käytännöt ja automatisoimalla energian käyttöä. Se voi kuitenkin myös nopeuttaa meitä vielä nopeammin matkalla tuhoon.
Tekoäly voi auttaa meitä säästämään resursseja, mutta se käyttää valtavia määriä energiaa toimiakseen. Tekoälymallien kasvaessa yhä suurempia, niiden energiankulutus kasvaa niiden mukana. Jotkin nykyiset tekoälymallit kuluttavat niin vähän energiaa kuin tarvitaan matkapuhelimen virran saamiseen harjoittelemaan itsensä, kun taas toiset käyttävät vuosittaista vastaavaa keskimääräistä yhdysvaltalaista kotitaloutta yhdessä harjoittelussa.Uusi pino).
Ennen kuin ryntäämme tekoälyn massakäyttöön, kuten olemme nähneet teknologiateollisuuden kompastuvan itseensä viime kuukausina, saattaa olla syytä ottaa aikaa löytääksesi energiatehokkaimman tavan tehdä niin.
Tekoäly voi johtaa siihen, että suuret teknologiat ja hallitukset hallitsevat elämäämme entisestään

Golden Dayz/Shutterstock
Nyt kun olemme nähneet sosiaalisen median vaikutukset, ymmärrämme, että yritykset, jotka antoivat meille mahdollisuuden olla yhteydessä maailmaan, käyttivät myös dataamme hyväkseen imperiumien rakentamiseen. Google, Facebook ja muut tutkivat vuosia tapojamme ansaita niillä rahaa, ja he ovat tarkoituksella manipuloineet tunteitamme pitääkseen meidät rullaamassa (välilläNBC). Nyt kun tekoäly on vihdoin siirtymässä valtavirtaan, sen ominaisuudet vain vahvistavat yrityksiä, jotka haluavat vaikuttaa enemmän elämäämme omaksi hyödykseen.
Tekoäly voi olla yksityisyyden seuraava raja: mainonnasta, joka voi nyt näkyä luodussa tekstilohkossa Bingissä, älykkäisiin koteihin, jotka voivat tutkia elintapojamme. Samaan aikaan Yhdysvaltain hallitus on yhä kiinnostuneempi suuren teknologian vaimentamisesta, mikä mahdollisesti pakottaa heidät luovuttamaan yksityisiä tietoja. Oletetaan kiivasta keskusteluaRAJOITUSlakitekee tiensä lakiin. Siinä tapauksessa voi olla teknologiayritysten taloudellisten etujen mukaista luoda syvempiä suhteita hallitukseen ja tarjota parempi pääsy yksityisiin tietoihin.
Tekoäly etenee liian nopeasti, jotta tietäisimme, kuinka pitkälle edistymiskäyrässä olemme. ChatGPT:ssä nähdyt massiiviset harppaukset voivat olla poikkeavuuksia tai uuden Mooren lain alkua. Joka tapauksessa nämä ohjelmat ovat enemmän kuin kykeneviä aiheuttamaan konkreettista vahinkoa massiivisessa mittakaavassa. Vaikka hyödymme heidän merkittävistä kyvyistään, meidän pitäisi tietää nuo vaarat.