Kuinka rakentaa etiikka osaamisalueeksi - osa I

Tutkimukseen perustuvat suositukset ihmiskunnan pitämiseksi AI: ssä

Dimdimichin ”sydämen muotoinen”

Tämä on osa kaksiosaista sarjaa siitä, kuinka rakentaa etiikka AI: hen. Ensimmäinen osa keskittyy eettisen kulttuurin viljelyyn yrityksessäsi ja tiimissäsi sekä avoimuuteen yrityksessäsi ja ulkoisesti. Toinen osa keskittyy mekanismeihin poissulkemisen poistamiseksi tiedoista ja algoritmeista. Jokainen suositus sisältää esimerkkejä eettisistä väärinkäytöksistä ja siitä, miten ne on ehkä estetty tai lievennetty.

Näyttää siltä, ​​että joka päivä on artikkeleita siitä, kuinka tekoälyn (AI) järjestelmä aiheutti rikoksen (esimerkiksi afrikkalaisten amerikkalaisten merkitseminen gorillaksi) tai todellisen vahingon, kun tarkoitus on saattanut olla tarkoituksellinen (esim. Rotuun liittyvä puolue rikostuomioissa) suositukset ja korot).

Kummankaan näiden järjestelmien kehittäjät eivät pyrkineet loukkaamaan tai vahingoittamaan ketään eivätkä ennakoineet kielteisiä tuloksia, mutta pitäisikö heillä olla? Jos suunnittelet ja rakennat AI-järjestelmää, voitko rakentaa etiikan? Riippumatta roolistasi organisaatiossa, voitteko auttaa varmistamaan, että AI-järjestelmäsi johtaa oikeudenmukaisempaan yhteiskuntaan kuin pysyvään yhteiskunnallisessa harhassa? Vastaus kaikkiin näihin kysymyksiin on "Kyllä!"

Tee hyvin ja tee hyvää

Salesforcen toimitusjohtaja Marc Benioff on sanonut: ”Yritykseni tavoitteet ovat menestyä hyvin ja tehdä hyvää.” Tämä on keskeinen arvo luottamuksen, tasa-arvon ja innovaatioiden kannalta. Uskomme vahvasti, että voimme olla innovaatioiden eturintamassa, menestyä ja olla voiman hyvä maailmassa. Pyrimme sisäisesti rakentamaan etiikkaa Einsteiniin (AI-järjestelmämme) ja teemme yhteistyötä muiden jäsenten kanssa AI: n yhteisessä kumppanuudessa.

Etiikan upottaminen AI-järjestelmään vie aikaa, ja se voi edellyttää, että työskentelet eri tavalla kuin sinä tai yrityksesi on aina toiminut. Ottaen kuitenkin huomioon, että AI: llä on sekä haittoja että hyötyjä, on tärkeää tehdä sijoitus!

Kokonaisvaltainen lähestymistapa

Prosessi etiikan rakentamiseksi järjestelmään voidaan jakaa kolmeen vaiheeseen useissa vaiheissa kussakin:

  1. Luo eettinen kulttuuri
  2. Ole läpinäkyvä
  3. Poista poissulkeminen

Luo eettinen kulttuuri

Jos et rakenna vahvaa perustaa aloittamiseen, menestymiseen vaadittavat ponnistelut ovat aina suuremmat. Tähän sisältyy monipuolisen joukkueen rakentaminen, eettisen ajattelutavan viljely ja sosiaalisten järjestelmien analyysin suorittaminen.

Rakenna monipuolinen joukkue

Rekrytoi monenlaisista taustoista ja kokemuksista, jotta vältetään puolueellisuudet ja piirteet.

Kun Applen HealthKit ilmestyi vuonna 2014, se pystyi seuraamaan veren alkoholipitoisuuttasi, mutta et pystynyt seuraamaan yleisintä terveysongelmaa, jonka useimmat naiset käsittelevät joka kuukausi.

Tutkimukset osoittavat (1, 2, 3, 4, 5, 6), että monimuotoiset joukkueet (mukaan lukien kokemus, rotu, sukupuoli) ovat luovempia, ahkerampia ja ahkerampiä. Lisäämällä naisia ​​kaikilla tasoilla, etenkin ylimmälle johdolle, saadaan suurempia voittoja.

Monimuotoisuuden puute luo kaikukammion ja johtaa puolueellisiin tuotteisiin ja piirteisiin. Jos Applen HealthKit -kehittäjäryhmässä olisi enemmän (onko?) Naisia, he todennäköisesti olisivat tunnistaneet räikeän poissaolon 50 prosentilla väestöstä. Tämä esimerkki viittaa sukupuolisen monimuotoisuuden puuttumiseen, mutta tarvitaan kaikenlaista monimuotoisuutta iästä ja rodusta kulttuuriin ja koulutukseen saakka.

Jos et pysty palkkaamaan uusia jäseniä monipuolisemman tiimin rakentamiseksi, kysy palautetta yrityksen erilaisilta työntekijöiltä ja käyttäjäkunnalta.

Viljele eettistä ajattelutapaa

Etiikka on ajattelutapaa, ei tarkistuslista. Anna työntekijöille mahdollisuus tehdä oikein.

Uberin toimitusjohtaja uskoo ilmiantajiin pakottamalla yrityksen tekemään muutoksia ja "menemään eteenpäin yrityksenä, joka tekee oikein."

Yksinkertaisesti eettisen pääjohtajana ei estä yrityksiä tekemästä eettisiä väärinkäytöksiä. Tämä johtuu siitä, että kukaan henkilö ei voi tai sen ei pitäisi olla vastuussa eettisesti toimivasta yrityksestä. Koko yrityksessä on oltava eettinen ajattelutapa.

Yksittäisten työntekijöiden on voitava tuntea itsensä kaikkien kanssa, että heidän AI-järjestelmänsä vaikuttaa. Yritykset voivat viljellä eettistä ajattelutapaa kurssien, sisäisten tukiryhmien ja tasa-arvotarkastusten avulla.

Lisäksi työntekijöiden tulisi tuntea olevansa valta haastaa toisiaan jatkuvasti kysymällä: ”Onko tämä oikea asia?” Tuotearvioinneissa ja päivittäisissä tilannekatsauksissa ihmisten tulisi kysyä omia verkkotunnuksiaan koskevia eettisiä kysymyksiä. Esimerkiksi:

  • Tuotepäälliköt: "Mikä on väärien positiivisten tai väärien negatiivisten vaikutus liiketoimintaan algoritmissamme?"
  • Tutkijat: ”Kenelle järjestelmämme vaikuttaa ja miten? Kuinka tätä voidaan käyttää väärin? Kuinka ihmiset yrittävät rikkoa tuotteen tai käyttää sitä tahattomasti? ”
  • Suunnittelijat: ”Mitä oletusasioita tai oletuksia rakennan tuotteeseen? Suunnittelenko tämän avoimuuden ja tasa-arvon saavuttamiseksi? "
  • Tietotieteilijät ja mallinntajat: "Optimoimalla mallini tällä tavalla, mitä vaikutuksia luon niille, joita vaikutus koskee?"

Kun työntekijät ovat tyytymättömiä saamiinsa vastauksiin, sen ratkaisemiseksi on oltava mekanismi.

Yksinkertaisesti eettisen pääjohtajana ei estä yrityksiä tekemästä eettisiä väärinkäytöksiä. Tämä johtuu siitä, että kukaan henkilö ei voi tai sen ei pitäisi olla vastuussa eettisesti toimivasta yrityksestä. Koko yrityksessä on oltava eettinen ajattelutapa.

Suorita sosiaalisen järjestelmän analyysi

Ota sidosryhmät mukaan tuotekehityksen elinkaaren jokaiseen vaiheeseen korjaamaan systeemisen sosiaalisen eriarvoisuuden vaikutukset AI-tiedoissa.

Chicagon poliisilaitos käytti AI-ohjattua ennakoivaa poliisiohjelmaa henkilöiden tunnistamiseksi, joilla on suurin riski olla mukana aseväkivallassa. Ohjelman todettiin tehottoman vähentämään rikollisuutta, mutta johti tiettyihin henkilöihin kohdistuvaan pidätykseen.

Sosiaalijärjestelmäanalyysi on ekosysteemissä vuorovaikutuksessa olevien ryhmien ja instituutioiden tutkimus. Sen sijaan, että oletetaan järjestelmän rakentavan, sosiaalisen järjestelmän analyysi kysyy, pitäisikö järjestelmä rakentaa ensin, ja jatkaa sitten järjestelmän suunnittelua sidosryhmien tarpeiden ja arvojen perusteella. Tämä voidaan tehdä suorittamalla etnografia vaikutuspiirissä olevassa yhteisössä tai saamalla palautetta valvontakomitealta tai oikeuslaitokselta.

Kate Crawford ja Ryan Calo viittaavat Chicagon ennakoivan poliisiohjelman esimerkkiin seuraavaa: ”Sosiaalijärjestelmälähestymistavalla otettaisiin huomioon niiden tietojen sosiaalinen ja poliittinen historia, joihin lämpökartat perustuvat. Tämä voi vaatia yhteisön jäsenten kuulemista ja poliisin tietojen punnitsemista naapuruusvalvonnasta saatujen positiivisten ja kielteisten palautteiden perusteella. "

Organisaatioiden on ymmärrettävä, kuinka heidän luomuksensa vaikuttaa käyttäjiin ja koko yhteiskuntaan. Ymmärtämällä nämä vaikutukset, he voivat määrittää ne, jotka ovat alttiimpia järjestelmän kielteisille vaikutuksille. Tilastollisesta näkökulmasta voi olla, että väärän positiivisen tai väärän negatiivisen mahdollisuus on vain 1% (tilastollisesta näkökulmasta erinomainen!), Mutta 1% väestöstä tulos voi olla erittäin haitallista. Sovelletaanko järjestelmän riskejä ja etuja tasaisesti kaikkiin? Kuka hyötyy ja kuka maksaa AI: n tulosten perusteella? Tämän kysymyksen esittäminen AI: n kehityksen kaikissa vaiheissa, mukaan lukien käynnistystä edeltävä ja sen jälkeen, voi auttaa tunnistamaan haitalliset puolueellisuudet ja ratkaisemaan sen.

Tilastollisesta näkökulmasta väärän positiivisen tai väärän negatiivisen mahdollisuus voi olla vain 1%, mutta tulokselle voi olla erittäin haitallista 1% väestöstä.

Ole läpinäkyvä

Eettisyys edellyttää, että olet avoin itsellesi, käyttäjillesi / asiakkaillesi ja yhteiskunnallesi. Tähän sisältyy arvojen ymmärtäminen, tietäminen siitä, kuka hyötyy ja kuka maksaa, antaa käyttäjille mahdollisuuden hallita tietojaan ja ottaa palautetta.

Ymmärrä arvosi

Tutki arvopohjaisten päätösten tuloksia ja kompromisseja.

Jotkut pelkäävät, että AI-avustajat, kuten Siri ja Google, kuuntelevat aina. Ne on suunniteltu arvaamaan, mitä käyttäjät haluavat tietää ennen heiltä kysymistä, tarjoamalla erittäin hyödyllisiä juuri oikea-aikaisia ​​tietoja. Se herättää kuitenkin huolen myös yksityisyyttä ja tietoturvaa käyttävistä käyttäjistä.

Henkilön tai yrityksen arvot saattavat olla ristiriidassa päätöksiä tehtäessä, mikä johtaa kompromisseihin. Esimerkiksi käyttäjät rakastavat mukautettujen tulosten mukavuutta, mutta he voivat olla huolissaan siitä, mitä yritys tietää heistä (yksityisyys) tai mitä yritys voi päättää olla paljastamatta heille (syrjintä). Valitettavasti AI-avustajien ei ole todettu olevan niin hyödyllisiä kaikille, koska heidän koulutuksensa näyttää sulkevan pois afroamerikkalaisten äänet. Kun kompromisseja tehdään, ne on tehtävä selväksi kaikille, joita asia koskee. Tämä voi olla vaikeaa, jos AI-algoritmit ovat ”mustia laatikoita”, jotka estävät niiden luojat tietämästä tarkalleen miten päätökset tehdään.

Tulosten jatkuvaa tutkimista tarvitaan näiden kompromissien vaikutusten ymmärtämiseksi. Oletetaan, että yrityksesi suunnittelee AI-parannettua turvajärjestelmää, joka johtaa jonkin verran henkilökohtaisen yksityisyyden menetykseen. Harkitse seuraavaa:

  • Jos käyttäjän yksityisyyden suojaaminen on ilmoitettu yrityksen arvo, työntekijöiden (ei vain ylimpien työntekijöiden) tulisi olla tietoisia tästä vaihtoehdosta.
  • Lisäksi asiakkaille ja yleisölle olisi tiedotettava siitä, kuinka turvajärjestelmän käyttö vaikuttaa yksityisyyden suojaan.
  • Jos tämä on piilotettu PR-takaiskun peloista, on kysyttävä: "Onko käyttäjän yksityisyys todella yrityksen arvo?"

Selittäminen, miksi yritys teki vaihtokaupan ja mitä se tekee haittojen vähentämiseksi, voi viedä pitkän matkan kansalaisten luottamuksen säilyttämiseen.

Anna käyttäjille hallinta heidän tietoihinsa

Salli käyttäjien korjata tai poistaa tietoja, jotka olet kerännyt heistä.

Googlen tavoitteena on tehdä maailman tiedoista "yleisesti saatavissa ja hyödyllisiä". Vuodesta 2014 lähtien he ovat vastaanottaneet 2,4 miljoonaa "oikeutta unohtaa" -pyyntöä poistaa yksityishenkilöiden, poliitikkojen ja valtion virastojen tietoja, jotka ovat vahingollisia. Google on kuitenkin täyttänyt vain 43,3% pyynnöistä.

Yritykset voivat kerätä ja seurata hämmästyttävää määrää käyttäjiään koskevia tietoja verkossa, kaupoissa ja Internet-käytössä (IoT). On vain eettistä antaa käyttäjien nähdä, mitä tietoja olet kerännyt heistä, ja korjata ne tai ladata ja poistaa tiedot. Jos yrityksesi toimii EU: ssa, sinun on oltava tietoinen EU: n yleisistä tietosuojamääräyksistä (GDPR) ja niiden vaikutuksista siihen, mitä voit kerätä ja tallentaa, samoin kuin säännöistä, jotka koskevat käyttäjien / asiakkaiden mahdollisuutta ladata ja poistaa tietojaan. .

Varmista lisäksi, että tiedot on mahdollista esittää oikein. Esimerkiksi, onko käyttäjien mahdollista ilmoittaa sukupuoleensa, jos he tunnistavat olevansa ei-binaarisia? Onko heillä mahdollisuus valita useampi kuin yksi rodullinen tausta?

Jos kerätyt tiedot ovat nimettömiä ja käyttäjien ei ole mahdollista nähdä tarkalleen mitä yritys tietää heistä ja muokata niitä, välittää selvästi kerätyt tiedot ja antaa yksilöille mahdollisuuden poistua käytöstä. Jos käyttäjät eivät voi käyttää tuotetta ilman tiedonkeruua, viesti myös siitä.

Ota palautetta

Anna käyttäjien antaa palautetta päätelmistä, joita AI tekee heistä.

Kolme kansallista luottolaitosta keräävät tietoja yksityishenkilöistä luottotietoraporttien laatimiseksi, joita lainanantajat käyttävät selvittääkseen mahdollisen lainanottajan riskin. Henkilöt eivät voi valita kerättävää tietoa, ja heidän on suoritettava rasittava pituus virheellisten tietojen tai päätelmien korjaamiseksi.

Henkilöstä tehdyillä päätelmillä (esim. Suuri lainan maksukyvyttömyysriski) voi olla haitallisia seurauksia ilman yksilön tietämystä tai hallintaa (esim. Kyvyttömyys saada lainaa). Valitettavasti ne, jotka kärsivät eniten AI: n ja ”suurten tietojen” käsissä, ovat jo syrjäytyneitä, köyhimpiä, äänettömiä yhteisöjä (esim. Ne, joilla ei ole Internet-yhteyttä, jotka eivät näe nopeasti luottoraporttiaan tai tiedostoa korjausta varten).

EU: n lainsäädännössä edellytetään, että ihminen tarkistaa vakavia seurauksia aiheuttavat AI-päätökset, joilla on mahdollisuus ohittaa päätökset; Yksi erillinen tietopiste on kuitenkin merkityksetön ilman, että ymmärretään toisista tehtyjä päätöksiä (esim. onko lainan hyväksymissuositus erilainen mustille ja valkoisille asiakkaille, vaikka kaikki muut tekijät ovat samanlaiset?). On tärkeää ymmärtää AI-suositukset tai -ennusteet yhteydessä.

Läpinäkyvyys johtopäätöksissä ja antamalla yksilöille mahdollisuuden antaa palautetta ei vain paranna mallin tarkkuutta, vaan antaa sinulle myös oikeuden korjata syrjintää. Tämä voi olla etu verrattuna kilpailijoihin, jotka hylkäävät kohtuuttomasti elinkykyiset asiakkaat. Esimerkiksi pankki, joka hylkää suuren määrän lainanhakijoita liian suurena riskinä, voi tunnistaa mikroluotot vaihtoehtotarjoukseksi, joka ei vain tue yhteisöä, vaan johtaa myös uskolliselle asiakaskunnalle, jota pankin kilpailijat ovat sivuuttaneet. Tämän avulla asiakkaat voivat parantaa taloudellista asemaansa ja hyödyntää enemmän pankin tarjouksia, mikä johtaa hyvään sykliin.

Se vie kylän muuttamaan

Eettisen kulttuurin viljelystä yrityksen arvojen läpinäkyvyyteen ja asiakkaiden valtuuttamiseen saakka yrityksen ja sen työntekijöiden on toteutettava useita toimia luodakseen eettinen perusta rakentaa AI-tuotteita. Tutustu osaan II, jotta voit pohtia tapoja poistaa poissulkeminen AI-tuotteista.

Haluaisin kuulla mitä ajattelet! Mitä yrityksesi ja sinä itse teet luodaksesi eettisen perustan työhösi?

Kiitos Justin Tauber, Liz Balsam, Molly Mahar ja Raymon Sutedjo-The kaikista palautteistasi!

Seuraa meitä @SalesforceUX.

Haluatko työskennellä kanssamme? Ota yhteyttä uxcareers@salesforce.com