Vuoden teknisen skandaalin jälkeen 10 suositusta AI: lle

Aloitetaan paremmalla sääntelyllä, työntekijöiden suojelemisella ja "totuuden mainonnassa" -sääntöjen soveltamisella AI: hen

Tänään AI Now -instituutti julkaisee kolmannen vuosikertomuksemme AI: n tilasta vuonna 2018, sisältäen 10 suositusta hallituksille, tutkijoille ja teollisuuden ammattilaisille.

AI: ssa on ollut dramaattinen vuosi. Facebookista, joka mahdollisesti kannustaa etniseen puhdistukseen Myanmarissa, Cambridge Analyticaan, joka pyrkii manipuloimaan vaaleja, Googleen rakentamaan salainen sensuroitu hakukone kiinalaisille, vihaamaan Microsoftin sopimuksia ICE: n kanssa, useiden työntekijöiden kapinointiin olosuhteissa Amazonin algoritmisesti hallinnoimissa varastoissa - otsikot eivät ole pysähtyneet. Ja nämä ovat vain muutamia esimerkkejä satojen joukosta.

Näiden CSS-skandaalien ytimessä ovat vastuukysymykset: kuka vastaa, kun AI-järjestelmät vahingoittavat meitä? Kuinka ymmärrämme nämä vahingot ja kuinka korjaamme ne? Missä ovat interventiokohdat ja mitä lisätutkimuksia ja sääntelyä tarvitaan näiden interventioiden tehokkuuden varmistamiseksi? Tällä hetkellä näihin kysymyksiin on vähän vastauksia, ja nykyiset sääntelykehykset eivät riitä tarpeisiin. Näiden järjestelmien laaja-alaisuuden, monimutkaisuuden ja laajuuden kasvaessa tämä merkityksellisen vastuuvelvollisuuden ja valvonnan puute - mukaan lukien vastuun, vastuun ja asianmukaisen prosessin perussuojatoimet - on yhä kiireellisempi huolenaihe.

Vuosien 2016 ja 2017 raporttiemme perusteella AI Now 2018 -raportti käsittelee tätä keskeistä ongelmaa ja tarjoaa 10 käytännön suositusta, joiden avulla voidaan luoda vastuuvelvollisuuskehykset, jotka pystyvät hallitsemaan näitä tehokkaita tekniikoita.

suositukset

1. Hallitusten on säänneltävä AI: tä laajentamalla alakohtaisten virastojen valtuuksia valvoa, auditoida ja valvoa näitä tekniikoita alueittain.

AI-järjestelmien toteuttaminen laajenee nopeasti ilman riittävää hallinto-, valvonta- tai vastuuvelvollisuusjärjestelmää. Alueilla, kuten terveys, koulutus, rikosoikeus ja hyvinvointi, on kaikilla oma historia, sääntelykehykset ja vaarat. Kansallinen AI-turvallisuuselin tai yleiset AI-standardit ja sertifiointimalli kuitenkin pyrkivät täyttämään alakohtaisen asiantuntemuksen vaatimukset, joita tarvitaan vivahteelliseen säätelyyn. Tarvitsemme toimialakohtaista lähestymistapaa, jossa ei aseteta teknologiaa etusijalle, mutta keskitytään sen soveltamiseen tietyllä alueella. Hyödyllisiä esimerkkejä alakohtaisista lähestymistavoista ovat Yhdysvaltain liittovaltion ilmailuhallinto ja National Highway Traffic Safety Administration.

2. Kasvojen tunnustaminen ja tunnustamiseen vaikuttavat tekijät tarvitsevat tiukkoja säännöksiä yleisen edun suojelemiseksi.

Tällaisen sääntelyn tulisi sisältää kansalliset lait, jotka edellyttävät tiukkaa valvontaa, selkeitä rajoituksia ja julkista avoimuutta. Yhteisöillä olisi oltava oikeus hylätä näiden tekniikoiden soveltaminen sekä julkisessa että yksityisessä ympäristössä. Pelkkä julkinen tiedottaminen niiden käytöstä ei ole riittävä, ja suostumukselle olisi asetettava korkea kynnysarvo, kun otetaan huomioon sorron ja jatkuvan joukkovalvonnan vaarat. Vaikutusten tunnustaminen ansaitsee erityistä huomiota. Vaikuttava tunnistus on kasvojentunnistuksen alaluokka, joka väittää havaitsevansa asioita, kuten persoonallisuus, sisäiset tunteet, mielenterveys ja ”työntekijöiden sitoutuminen” kasvojen kuviin tai videoihin perustuen. Näitä väitteitä ei tueta vankalla tieteellisellä näytöllä, ja niitä sovelletaan epäeettisillä ja vastuuttomilla tavoilla, jotka usein muistuttavat frenologian ja fysiologian pseudotieteitä. Yhdistäminen vaikuttaa tunnustamiseen palkkaamiseen, vakuutusten saatavuuteen, koulutukseen ja poliisitoimintaan syventäen riskejä sekä yksilöllisellä että yhteiskunnallisella tasolla.

3. AI-teollisuus tarvitsee kiireellisesti uusia lähestymistapoja hallintotapaan.

Kuten tämä raportti osoittaa, useimpien teknologiayritysten sisäiset hallintorakenteet eivät pysty varmistamaan vastuullisuutta AI-järjestelmistä. Hallituksen sääntely on tärkeä osa, mutta johtava yritys AI-teollisuudessa tarvitsee myös sisäisen vastuurakenteen, joka ylittää eettiset ohjeet. Tähän tulisi sisältyä työntekijöiden edustus hallintoneuvostossa, ulkopuolisissa etiikan neuvottelukunnissa sekä riippumattoman seurannan ja avoimuuden edistäminen. Kolmansien osapuolien asiantuntijoiden tulisi voida tarkastaa ja julkaista tärkeimpiä järjestelmiä, ja yritysten on varmistettava, että heidän ilmailutekniikan infrastruktuurinsa ymmärretään "nenästä häntä", mukaan lukien niiden lopullinen käyttö ja käyttö.

4. AI-yritysten tulisi luopua liikesalaisuuksista ja muista oikeudellisista vaatimuksista, jotka haittaavat vastuuvelvollisuutta julkisella sektorilla.

Myyjien ja kehittäjien, jotka luovat hallintoon käytettäviä automaattisen tiedonhallintajärjestelmiä ja automatisoituja päätöksentekojärjestelmiä, olisi suostuttava luopumaan kaikista liikesalaisuuksista tai muista laillisista vaatimuksista, jotka estävät heidän ohjelmistonsa täydellisen tarkastuksen ja ymmärtämisen. Yritysalaisuutta koskevat lait ovat esteenä asianmukaiselle prosessille: ne myötävaikuttavat ”mustan laatikon efektiin” ja tekevät järjestelmistä läpinäkymättömiä ja ilmoittamattomia, mikä tekee vaikeaksi arvioida puolueellisuutta, kiistää päätöksiä tai korjata virheitä. Kaikkien, jotka hankkivat näitä tekniikoita käytettäväksi julkisella sektorilla, tulisi vaatia myyjiä luopumaan näistä vaatimuksista ennen sopimusten tekemistä.

5. Teknologiayritysten tulee tarjota suojat tunnollisille vastustajille, työntekijöiden järjestämiselle ja eettisille ilmoittajille.

Teknologiatyöntekijöiden järjestäytyminen ja vastustus ovat nousseet vastuun ja eettisen päätöksenteon voimana. Teknologiayritysten on suojeltava työntekijöiden kykyä organisoida, ilmoittaa ja tehdä eettisiä valintoja siitä, mitä projekteja he työskentelevät. Tähän tulisi sisältyä selkeät menettelytavat, joilla tunnustetut vastustajat otetaan huomioon ja suojataan, varmistetaan työntekijöille oikeus tietää, mitä he työskentelevät, ja kyky olla pidättämättä tällaisesta työstä ilman kostoa tai kostoa. Eettisiä huolenaiheita herättäviä työntekijöitä on myös suojeltava, samoin kuin väärinkäytöksiä yleisen edun vuoksi.

6. Kuluttajansuojavirastojen olisi sovellettava mainosta koskevaa lakia AI-tuotteisiin ja -palveluihin.

AI: n ympärillä oleva hype kasvaa vain, mikä johtaa kasvaviin kuiluihin markkinointilupausten ja todellisen tuotteen suorituskyvyn välillä. Näiden aukkojen myötä sekä yksityishenkilöille että yritysasiakkaille koituvat kasvavat riskit, usein vakavilla seurauksilla. AI: n tavoin, kuten muut tuotteet ja palvelut, joilla voi olla vakavia vaikutuksia väestöön tai hyödynnettävä niitä, AI-toimittajien on noudatettava korkeita vaatimuksia sille, mitä he voivat luvata, etenkin kun tieteellinen näyttö näiden lupausten tukemiseksi on riittämätöntä ja pidemmän aikavälin seurauksia ei tunneta .

7. Teknologiayritysten on ylitettävä ”putkimalli” ja sitouduttava puuttumaan syrjäytymisen ja syrjinnän käytäntöihin työpaikoillaan.

Teknologiayritykset ja koko AI-kenttä ovat keskittyneet ”putkimalliin”, joka haluaa kouluttaa ja palkata monipuolisempia työntekijöitä. Vaikka tämä on tärkeää, siinä ei oteta huomioon sitä, mitä tapahtuu, kun ihmiset palkataan työpaikoille, jotka sulkevat pois, häiritsevät tai järjestelmällisesti aliarvioivat ihmisiä sukupuolen, rodun, seksuaalisuuden tai vammaisuuden perusteella. Yritysten on tutkittava työpaikkojensa syvällisemmät kysymykset sekä syrjäytyvien kulttuurien ja niiden rakentamien tuotteiden välinen suhde, joka voi tuottaa välineitä, jotka säilyttävät puolueellisuuden ja syrjinnän. Tähän painopisteen muutokseen on liitettävä käytännöllisiä toimia, mukaan lukien sitoutuminen lopettamaan palkka ja mahdollisuuksien epätasa-arvo sekä palkkaamista ja pidättämistä koskevat avoimuustoimenpiteet.

8. AI: n oikeudenmukaisuus, vastuuvelvollisuus ja läpinäkyvyys vaativat yksityiskohtaisen selvityksen "täydellisestä pinon toimitusketjusta".

Merkityksellisen vastuuvelvollisuuden vuoksi meidän on ymmärrettävä ja seurattava paremmin AI-järjestelmän komponentteja ja koko toimitusketjua, johon se perustuu: se tarkoittaa koulutustietojen, testitietojen, mallien, sovellusohjelmarajapintojen (API) lähteiden ja käytön kirjanpitoa ) ja muut infrastruktuurikomponentit tuotteen elinkaaren aikana. Kutsumme tätä kirjanpitoa AI-järjestelmien ”täydeksi pinoketjun toimitusketjuksi”, ja se on välttämättömämpi edellytys vastuullisemmalle auditoinnille. Koko pinon toimitusketju sisältää myös AI-järjestelmien todellisten ympäristö- ja työvoimakustannusten ymmärtämisen. Tähän sisältyy energiankäyttö, työvoiman käyttö kehitysmaissa sisällön moderointiin ja koulutustietojen luomiseen sekä napsautustyöntekijöiden luottamus AI-järjestelmien kehittämiseen ja ylläpitoon.

9. Tarvitaan lisää rahoitusta ja tukea oikeudenkäynteihin, työvoiman järjestämiseen ja yhteisön osallistumiseen AI: n vastuuvelvollisuuskysymyksiin.

Ihmisjärjestelmistä aiheutuvien vahinkojen suurimmassa vaarassa ihmiset ovat usein vähiten kyvyttömiä kiistämään tuloksia. Tarvitsemme lisää tukea laillisten oikeussuojakeinojen ja kansalaisten osallistumisen vahvoille mekanismeille. Tähän sisältyy sellaisten julkisten edustajien tukeminen, jotka edustavat sosiaalipalveluista algoritmisen päätöksenteon vuoksi katkaistuja, kansalaisyhteiskunnan organisaatioiden ja työvoiman järjestäjien tukeminen ryhmille, joille on vaarassa menettää työpaikat ja hyväksikäyttö, sekä yhteisöpohjaisten infrastruktuurien, jotka mahdollistavat yleisön osallistumisen.

10. Yliopistojen AI-ohjelmien tulisi laajentua tietotekniikan ja tekniikan alojen ulkopuolelle.

AI alkoi monitieteisenä kentällä, mutta vuosikymmenien aikana se on kaventunut tekniseksi tieteenaloksi. AI-järjestelmien soveltamisen lisääntyessä sosiaalisiin aloihin sen on laajennettava kurinalaisuutta. Se tarkoittaa asiantuntemuksen keskittämistä sosiaalisista ja humanistisista tieteenaloista. AI-toimet, jotka todella haluavat puuttua sosiaalisiin vaikutuksiin, eivät saa jäädä pelkästään tietotekniikan ja tekniikan laitoksille, joissa tiedekunnan jäseniä ja opiskelijoita ei ole koulutettu tutkimaan sosiaalista maailmaa. AI-tutkimuksen kurinalaisuuden suuntaamisen laajentaminen varmistaa syvemmän huomion kiinnittämisen sosiaalisiin olosuhteisiin ja enemmän keskittymistä mahdollisiin vaaroihin, kun näitä järjestelmiä sovelletaan ihmispopulaatioihin.

Voit lukea koko raportin täältä.