Maaari bang Magkaroon ng Biases ang AI?

May -Akda: Laura McKinney
Petsa Ng Paglikha: 5 Abril 2021
I -Update Ang Petsa: 26 Hunyo 2024
Anonim
Hollyland Mars T1000 Full-Duplex Wireless Intercom System | Wireless Talkback System
Video.: Hollyland Mars T1000 Full-Duplex Wireless Intercom System | Wireless Talkback System

Nilalaman


Takeaway:

Sa mga nagdaang taon, ang AI ay lalong nag-ampon at inilapat sa lahat mula sa pagtatasa ng kagandahan hanggang sa pagtatasa ng panganib ng recidivism. Sa paggawa nito, nagtataguyod din ito ng mga pamantayan na sumusuporta sa bias at diskriminasyon sa maraming pagkakataon.

Ang pagsulong ng teknolohiya ay may potensyal na tunay na i-democratize ang pag-access sa impormasyon at pagkakataon. Gayunpaman, kapag sa ilang mga kaso, ginagamit ito sa mga paraan na nagpapatibay sa paniwala na sa ating lipunan ang ilang mga tao ay higit na pantay kaysa sa iba.

Ito ang nakita natin mula sa sumusunod na pitong pagkakataon kung saan ang artipisyal na intelektwal (AI) ay sinasadya na ginagamit upang ibukod ang ilang mga kategorya o kung saan ipinapakita lamang nito ang bias na na-embed ng mga taong programmer nito na may isang diskriminatibong epekto.

Ang AI Beauty Bias

Ang kagandahan ay maaaring nasa mata ng nakikita, ngunit kapag ang programang iyon ay maaaring i-program ang AI, nagkaroon ka ng bias sa programa. Iniulat ni Rachel Thomas sa isang nasabing yugto sa isang kumpetisyon ng kagandahan mula sa beauty.ai noong 2016. Ipinakita ng mga resulta na ang mga mas magaan na kutis ay minarkahan ng mas kaakit-akit kaysa sa mga madilim.


Nang sumunod na taon, ang "FaceApp, na gumagamit ng mga network na neural upang lumikha ng mga filter para sa mga litrato, ay lumikha ng isang 'init na filter' na nagpapagaan sa balat ng mga tao at binigyan sila ng higit pang mga tampok sa Europa."

Ang Mga Kasarian ng Kasarian sa Mga Wika

Binanggit din ni Thomas ang isang dokumentadong halimbawa ng mga salin na nagdadala sa stereotyped na inaasahan ng mga karera. Ang panimulang punto ay dalawang pangungusap: "Siya ay isang doktor. Siya ay isang nars."

Kung isasalin mo ito sa Turkish at bumalik sa Ingles, makakakuha ka ng uri ng mga resulta na maaaring inaasahan mo mula sa isang laro ng telepono.

Sa halip na kunin ang sinimulan mo, makakakuha ka ng taong inaasahan sa taong 1950, "Siya ay isang doktor. Siya ay isang nars." Ipinaliwanag niya na dahil sa pangngalan ng neutral na neutral sa wikang Turko na magtatalaga ng kasarian batay sa mga inaasahan at stereotypical bias. (Basahin ang Babae sa AI: Reinforcing Sexism at Stereotypes kasama ang Tech.)


Habang ang mga lahi ng lahi at gendered na pag-filter sa mga imahe at wika ay sanhi ng pagkagulo, hindi rin sila ang parehong bagay tulad ng aktibong diskriminasyon na nagreresulta mula sa AI, ngunit nangyari rin ito.

Ang patunay nito ay isang screenshot ng mga limitasyon na inilalagay para sa isang ad sa ilalim ng kategorya ng pabahay nito na pinapayagan ang pagpipilian para sa pag-igit sa madla sa pamamagitan ng pag-tsek ng mga pagbubukod ng mga kategorya tulad ng African American, Asian American o Hispanics. Ang ad ay maaaring matingnan dito.

Tulad ng ipinakita ng ProPublica, ang diskriminasyong epekto ng mga ad ay labag sa batas pareho sa ilalim ng The Fair Housing Act of 1968 at ang Civil Rights Act of 1964. 's lamang ang pagtatanggol sa kasong ito ay ang ad ay hindi para sa pabahay mismo, dahil ito ay' t tungkol sa isang ari-arian o bahay na ibebenta o upa.

Gayunpaman, nagkaroon ng iba pang mga pagkakataon ng pag-target na nagpapahiwatig ng lahi ng lahi at na nag-udyok sa iba't ibang mga nilalang na magdala ng mga demanda sa sibil laban sa social network. Tulad ng iniulat ni Wired, sa wakas ay nalutas upang ayusin ang ad-targeting tech na resulta ng isang pag-areglo ng limang mga ligal na kaso na sisingilin ito sa pagpapagana ng diskriminasyon laban sa mga minorya sa pamamagitan ng mga ad noong Marso 2019.

Sa ulat nito sa pag-areglo, itinuro ng ACLU kung paano maaaring mapang-insulto ang mga naka-target na ad, dahil kahit na ang mga minorya at kababaihan ay hindi pa nila napagtanto na hindi sila binigyan ng parehong pag-access sa impormasyon, pabahay, at mga oportunidad sa trabaho na ibinahagi sa mga puting kalalakihan.

Tulad ng maraming mga tao na bumabalik sa internet upang makahanap ng mga trabaho, mga apartment at pautang, mayroong isang tunay na peligro na ang pagta-target ng ad ay magtitiklop at kahit na magpalawak ng umiiral na mga lahi ng lahi at kasarian sa lipunan. Isipin kung ang isang employer ay piniling magpakita lamang ng mga ad para sa mga trabaho sa engineering lamang sa mga lalaki - hindi lamang ang mga gumagamit na hindi nakikilala bilang mga lalaki ay hindi kailanman nakikita ang mga ad, hindi rin nila malalaman kung ano ang kanilang napalampas.

Pagkatapos ng lahat, bihira kaming magkaroon ng isang paraan upang makilala ang mga ad na arent na nakikita namin sa online. Na ang diskriminasyong ito ay hindi nakikita ng hindi kasama na gumagamit ay ginagawang mas mahirap na tumigil.

2. Ang diskriminasyon sa kasarian at edad sa mga trabaho

Kabilang sa mga ligal na kaso ay ang iligal na diskriminasyon sa pabahay na pinapayagan ang pag-target. Sa ulat nito sa pag-areglo, sinabi ng ProPublica na sinubukan nito ang platform at nagtagumpay sa pagbili ng "mga ad na nauugnay sa pabahay sa na hindi kasama ang mga grupo tulad ng mga African American at Hudyo, at nauna itong natagpuan ang mga ad ng trabaho na hindi kasama ang mga gumagamit sa edad at kasarian na inilagay ng mga kumpanya iyon ang mga pangalan ng sambahayan. "

Ang isang bilang ng mga ad ng trabaho na natagpuan ng ACLU na malinaw na naglalayong mga lalaki lamang sa isang partikular na bracket ng edad, dahil mahahanap ng mga gumagamit ang pag-click sa sagot kung bakit sila ipinakita na partikular na ad, ay itinampok sa isa pang artikulo ng Wired. Ang ACLU ay nagbigay ng singil sa Equal Employment Opportunity Commission laban sa social network at mga kumpanya na naglagay ng mga ad sa mga batayan na nilabag nila ang parehong batas sa paggawa at karapatang sibil.

Ang diskriminasyon laban sa pag-upa sa mga tao na higit sa 40 ay lumalabag sa pederal na Edad ng Diskriminasyon sa Employment Act (ADEA). Ngunit ang pagta-target sa mga ad ng trabaho lamang sa mga taong mas mababa sa edad na iyon ay isa sa mga bagay na pinagana ng platform.

Ginawa ng ProPublica na ang pokus ng isa sa mga ulat nito na naglalantad kung aling mga ad ng trabaho ang nagpalaki sa iligal na anyo ng pagbubukod sa edad. Ang "mga pangalan ng sambahayan" ay kinabibilangan ng Verizon, UPS, Uber, Target, Statefarm, Northwestern Mutual, Microsoft, J Street, HusbSpot, IKEA, Pondo Para sa Publikong Interes, Goldman Sach, OpenWorks, at sarili nito, bukod sa iba pa.

Nabigo ang Pagkilala sa Mukha

"Ang Pagkilala sa Mukha Ay Tumpak, kung Ikaw ay isang White Guy" ay nagpahayag ng pamagat ng isang artikulo ng New York Times na inilathala noong Pebrero 2018. Nabanggit nito ang mga resulta na natagpuan ang isang natatanging ugnayan sa pagitan ng tono ng balat at may maling pagkakakilanlan:

"Ang mas madidilim na balat, ang higit pang mga pagkakamali ay lumitaw - hanggang sa halos 35% para sa mga imahe ng mas madidilim na mga babaeng may balat, ayon sa isang bagong pag-aaral na sumisira sa sariwang lupa sa pamamagitan ng pagsukat kung paano gumagana ang teknolohiya sa mga tao na may iba't ibang lahi at kasarian."

Ang mga natuklasan ay na-kredito kay Joy Buolamwini, isang mananaliksik sa MIT Media Lab, at ang nagtatag ng Algorithmic Justice League (AJL). Ang kanyang lugar ng pananaliksik ay ang mga bias na sumasailalim sa AI, na nagreresulta sa nasabing mga resulta ng skewed pagdating sa pagkilala sa mga mukha na hindi umaangkop sa puting lalaki na pamantayan ng kaugalian para sa modelo.

Ipinakita ni Buolamwini ang problema sa lahi ng lahi at kasarian para sa pagkilala sa mukha sa isang 2017 TED talk, na tinukoy niya sa kanyang unang bahagi ng 2018 sa video sa The Gender Shades Project mula sa MIT Lab:

<

Ang binaybay sa paglalarawan ng video ay ang pag-iiwan ng AI bias na hindi mapigilan, "ay pupulutin ang edad ng automation at karagdagang magpalala ng hindi pagkakapantay-pantay kung maiiwan sa fester." Ang mga peligro ay hindi mas mababa sa "pagkawala ng mga natamo na ginawa sa kilusang sibil na karapatang kilusan at kababaihan sa ilalim ng maling palagay ng pagiging neutral sa makina."

Ang pagdaragdag ng video ay nagdaragdag ng babala na marami pang iba na itinuro ngayon, tulad ng nakita natin sa Women in AI: Reinforcing Sexism and Stereotypes with Tech: "Ang mga automated na sistema ay hindi likas na neutral. Ipinapahiwatig nila ang mga prayoridad, kagustuhan, at mga prejudis - ang naka-code titig — ng mga may kapangyarihang maghulma ng artipisyal na katalinuhan. "

Noong Enero 25, 2019 inilathala ni Buolamnwini ang isang Medium post na iginuhit sa kanyang sariling pananaliksik at ng mga karagdagang mananaliksik na itinuro kung paano nagreresulta ang mga pagkakamali ng AI sa Mga Pagkilala sa Amazon at hiniling na itigil ng kumpanya ang pagbebenta ng serbisyo sa AI sa mga kagawaran ng pulisya.

Habang ang Rekognition ay maaaring magyabang ng 100% na katumpakan para sa pagkilala sa mga light-skinned na lalaki at 98.7% na katumpakan kahit para sa mas madidilim na mga lalaki, pagdating sa babae, ang kawastuhan ay bumaba sa 92.9% para sa mas magaan na mga babae. Kahit na higit na nakasisilaw ay ang matalim na pagbagsak sa 68.6% na kawastuhan para sa mas madidilim na mga babae.

Ngunit tumanggi ang Amazon na umiwas. Ang isang artikulo ng Venture Beat ay nagsipi ng isang pahayag mula kay Dr. Matt Wood, pangkalahatang tagapamahala ng malalim na pag-aaral at AI sa AWS, kung saan iginiit niya na ang mga natuklasan ng mga mananaliksik ay hindi sumasalamin kung paano ginamit ang AI, na nagpapaliwanag:

"Ang pagtatasa ng mukha at pagkilala sa mukha ay ganap na naiiba sa mga tuntunin ng pinagbabatayan na teknolohiya at ang data na ginamit upang sanayin ang mga ito. Sinusubukan na gumamit ng pagtatasa ng mukha upang masukat ang kawastuhan ng pagkilala sa mukha ay hindi pinapayuhan, dahil hindi ito ang inilaan na algorithm para sa hangaring iyon. "

Ngunit hindi lamang ang mga nauugnay sa mga pangunahing sentro ng pananaliksik na natagpuan ang mga algorithm na napaka-may problema. Ang ACLU ay nagpatakbo ng sariling pagsubok sa isang pinaka-makatwirang gastos na $ 12.33, ayon sa ulat ng Gizmodo. Napag-alaman na tumugma ang Rekognition sa 28 miyembro ng Kongreso kasama ang mga larawan ng mga kriminal.

"Ang mga maling pagkakakilanlan ay ginawa nang tungkulin ng ACLU ng Northern California ang Pagkilala sa pagtutugma ng mga larawan ng lahat ng 535 na mga miyembro ng Kongreso laban sa 25,000 magagamit na mga litrato ng pampublikong larawan."

Tulad ng 11 sa 28 ay mga taong may kulay, sumasalamin ito sa isang makabuluhang 39% na rate ng pagkakamali para sa kanila. Sa kaibahan ang rate ng error sa kabuuan ay isang mas katanggap-tanggap na 5%. Anim na miyembro ng Congressional Black Caucus, na kabilang sa mga Rekognition na naka-link sa mga mugshots, ay nagpahayag ng kanilang pag-aalala sa isang bukas na sulat sa CEO ng Amazon.

Recidivism Bias

Ang bias na naka-embed sa AI laban sa mga taong may kulay ay nagiging isang mas malubhang problema kapag nangangahulugan ito ng higit pa sa isang pagkilala sa pagkilala. Iyon ang paghahanap ng isa pang pagsisiyasat ng ProPublica noong 2016. Ang mga kahihinatnan ng naturang bias ay hindi mas mababa sa indibidwal na kalayaan na kasama ng hindi papansin ang totoong panganib mula sa taong ang kulay ng balat ay pinapaboran ng algorithm.

Ang artikulo ay tinukoy sa dalawang magkakatulad na mga kaso na kinasasangkutan ng isang puting perpetrator at isang itim. Ang isang algorithm ay ginamit upang mahulaan kung aling isa ang malamang na masira muli ang batas. Ang itim ay binigyan ng mataas na peligro, at ang puti ay may mababang panganib.

Ganap na mali ito ng hula, at ang puti na nagpalaya ay kailangang makulong muli. Ito ay lubos na may problema dahil ang mga korte ay umaasa sa pagmamarka sa pagpapasya sa parol, at nangangahulugan ito na ang lahi ng lahi na nakikinig sa programa ay nangangahulugang hindi pantay na paggamot sa ilalim ng batas.

Inilagay ng ProPublica ang algorithm sa sarili nitong pagsubok, na inihahambing ang mga marka ng peligro na higit sa 7,000 katao na naaresto sa Broward County, Florida, noong 2013 at 2014 sa bilang na may mga bagong kriminal na singil na dinala laban sa kanila sa mga sumusunod na dalawang taon.

Ang nahanap nila ay ang isang 20% ​​lamang ng mga hula para sa pag-uulit ng mga krimen ng isang marahas na kalikasan ang natupad, at higit pang mga menor de edad na krimen lamang ang naganap para sa 61% ng mga may mga marka na nagpapahiwatig ng panganib.

Ang tunay na problema ay hindi lamang ang kakulangan ng kawastuhan ngunit ang lahi ng lahi ay kasangkot:

  • Ang pormula ay partikular na malamang na maling mag-flag ng mga itim na tagapagtanggol bilang hinaharap na mga kriminal, mali nang may label sa kanila sa ganitong paraan nang halos dalawang beses ang rate bilang mga puting tagapagtanggol.
  • Ang mga puting tagapagtanggol ay sinira ng maling bilang mababang panganib nang mas madalas kaysa sa mga itim na defendants.

Sa bisa nito, isinalin ito sa isang rate ng error na 45% para sa mga itim na tao at 24% para sa mga puting tao. Sa kabila ng nakasisilaw na istatistika, iniulat ni Thomas na ang Korte Suprema ng Wisconsin ay nanatili pa rin sa paggamit ng algorithm na ito. Nag-detalye din siya ng iba pang mga problema na nauugnay sa mga algorithm ng recidivism.