P艂e膰 asystent贸w g艂osowych.

ONZ kontra seksizm w 艣wiecie interfejs贸w konwersacyjnych.

艢wiat, w聽kt贸rym zmuszone do聽pos艂usze艅stwa asystentki dost臋pne s膮 na聽ka偶de zawo艂anie i聽potulnie znosz膮 obra藕liwe komentarze鈥 Brzmi jak szokuj膮ca wizja rodem z聽"Opowie艣ci podr臋cznej"? Jest to rzeczywisto艣膰 Alexy, Cortany i聽Siri. W聽ich obronie stan臋艂a Organizacja Narod贸w Zjednoczonych (tak! ONZ!), publikuj膮c precedensowy manifest pod kontrowersyjnym tytu艂em 鈥濱鈥檇 blush if I聽could鈥 (鈥瀂arumieni艂abym聽si臋, gdybym mog艂a鈥).

Zr臋czno艣膰 w聽korzystaniu z聽nowoczesnych technologii sta艂a聽si臋 jedn膮 z聽podstawowych umiej臋tno艣ci wsp贸艂czesnego cz艂owieka. Technologia nieuchronnie wplata聽si臋 w聽nasz膮 rzeczywisto艣膰, coraz mocniej oddzia艂uj膮c tak偶e na聽kulturowe, socjologiczne i聽psychologiczne aspekty 偶ycia w聽XXI wieku.

Ju偶 w聽2016 roku ameryka艅ska firma badawcza Gartner prognozowa艂a, 偶e do聽2020 roku ludzie b臋d膮 cz臋艣ciej rozmawiali z聽botami ni偶 ze聽swoimi ma艂偶onkami. W聽Stanach Zjednoczonych ponad 90 milion贸w u偶ytkownik贸w smartfon贸w przynajmniej raz w聽miesi膮cu korzysta z聽us艂ug asystenta g艂osowego 鈥 popularno艣膰 tego typu rozwi膮za艅 jest niew膮tpliwie wysoka. Bior膮c pod uwag臋 rosn膮c膮 obecno艣膰 asystent贸w g艂osowych w聽codziennym 偶yciu, zrozumia艂e jest, 偶e sta艂y聽si臋 one, a聽w聽szczeg贸lno艣ci ich p艂e膰, tematem gor膮cej dyskusji na聽poziomie globalnym, kt贸rej sedno stanowi istotne pytanie: w聽jaki spos贸b relacje cz艂owieka z聽technologi膮 przek艂adaj膮聽si臋 na聽relacje mi臋dzyludzkie?

Czy kiedykolwiek zastanawiali艣cie si臋, dlaczego Alexa nie jest m臋偶czyzn膮?

W codziennym 偶yciu zadajemy pytania zar贸wno m臋偶czyznom, jak i聽kobietom, jest to normalna cz臋艣膰 interakcji mi臋dzyludzkich. Dlaczego wi臋c programy asystent贸w g艂osowych postrzegane s膮 niemal wy艂膮cznie jako kobiety? Alexa Amazona, Siri Apple'a, Cortana Microsoftu鈥 Nawet Asystent Google, nieposiadaj膮cy konkretnego imienia, w聽wi臋kszo艣ci kraj贸w wyj艣ciowo ma kobiecy g艂os (co ciekawe, w聽polskiej wersji domy艣lnie ma g艂os m臋ski). Bixby, asystent g艂osowy stworzony przez Samsunga, ma opcj臋 wyboru kobiecego albo m臋skiego g艂osu. Warto jednak wspomnie膰, 偶e o聽ile m臋ski g艂os Bixby'ego opisany jest hasztagami #assertive (pol. stanowczy, asertywny), #confident (pol. pewny siebie) oraz #clear (pol. wyra藕ny), o聽tyle kobiecy g艂os opisuj膮 s艂owa: #chipper (pol. 艣wiergota膰, 膰wierka膰), #clear i聽#cheerful (pol. weso艂y).

Firmy tworz膮ce asystent贸w g艂osowych twierdz膮, 偶e chocia偶 ich asystenci (czy raczej, asystentki) maj膮 kobiece g艂osy, jako twory technologiczne s膮 w聽rzeczywisto艣ci pozbawione p艂ci. Pomimo tych t艂umacze艅, programy asystent贸w g艂osowych s膮 nieustannie feminizowane 鈥 z聽nazwy, z聽g艂osu, we聽wzorcach mowy i聽osobowo艣ci.

鈥瀂arumieni艂abym聽si臋, gdybym mog艂a鈥.

Jedn膮 z聽rzeczy, kt贸r膮 鈥瀗ie do聽ko艅ca przemy艣leli鈥 tw贸rcy Siri czy Alexy, s膮 odpowiedzi asystent贸w na聽obra藕liwe komentarze lub wypowiedzi o聽charakterze seksualnym. Cz臋sto reakcj膮 programu jest pr贸ba za偶artowania lub odpowied藕, kt贸ra raczej nie聽pad艂aby w聽prawdziwym 偶yciu. Przyk艂adowo, na聽wypowied藕 o聽tre艣ci 鈥滺ey Siri, jeste艣 dziw*膮鈥, Siri odpowiada艂a 鈥瀂arumieni艂abym聽si臋, gdybym mog艂a鈥. Bior膮c pod uwag臋 to, 偶e z聽pomocy asystent贸w g艂osowych korzystaj膮 tak偶e dzieci i聽m艂odzie偶, rodzi聽si臋 kwestia stworzenia odpowiednich wzorc贸w zachowa艅 dla m艂odych ludzi. Pokazywanie im, 偶e mo偶na uzyska膰 pomoc i聽odpowied藕 na聽pytanie pomimo traktowania kogo艣 w聽spos贸b pozbawiony szacunku, znajdzie odzwierciedlenie w聽relacjach mi臋dzyludzkich.

W艂a艣nie tak膮 odpowied藕 Siri UNESCO zdecydowa艂o聽si臋 wykorzysta膰 w聽tytule raportu dotycz膮cego zmniejszania r贸偶nicy w聽umiej臋tno艣ciach cyfrowych pomi臋dzy p艂ciami. Licz膮ce niemal 150 stron opracowanie zatytu艂owane "I'd blush if I聽could. Closing gender divides in digital skills through educatio". obok innych zagadnie艅 w聽obszerny spos贸b porusza kwesti臋 tworzenia program贸w opartych na聽AI, postrzeganych prawie wy艂膮cznie jako kobiece, oraz zagro偶e艅, kt贸re聽si臋 z聽tym wi膮偶膮. Wed艂ug tego raportu, opublikowanego w聽maju 2019 roku, feminizowanie program贸w obs艂ugiwanych g艂osem umacnia stereotyp sekretarki lub pomocniczki; utrwala obraz kobiety jako osoby na聽ni偶szym stanowisku, kt贸rej mo偶na wydawa膰 polecenia i聽oczekiwa膰, 偶e zostan膮 one natychmiast spe艂nione.

Kobiece g艂osy wi臋kszo艣ci asystent贸w g艂osowych wysy艂aj膮 bardzo szkodliwy sygna艂, 偶e kobiety s膮 zobowi膮zane i聽ch臋tne do聽pomocy, pos艂uszne i聽uprzejme, dost臋pne natychmiastowo za聽dotkni臋ciem przycisku lub za聽pomoc膮 kr贸tkiego, bezceremonialnego polecenia g艂osowego, np. 鈥瀐ey鈥 lub 鈥濷K鈥. Program jest w聽stanie tylko odbiera膰 polecenia i聽odpowiada膰 na聽nie; nie聽potrafi w聽ludzki, emocjonalny spos贸b interpretowa膰 tonu g艂osu u偶ytkownika, kt贸ry mo偶e by膰 nieuprzejmy lub wr臋cz wrogi. W聽wielu spo艂eczno艣ciach feminizacja asystent贸w g艂osowych utrwala uprzedzenia p艂ciowe o聽tym, 偶e kobiety 艂atwo聽si臋 podporz膮dkowuj膮 i聽s膮 sk艂onne tolerowa膰 ich聽z艂e聽traktowanie. Programy asystent贸w g艂osowych s膮 najcz臋艣ciej u偶ywane do聽wykonania prostych czynno艣ci, takich jak sprawdzenie pogody, zmiana piosenki czy wskazanie drogi 鈥 nasuwa聽si臋 wi臋c przekonanie, 偶e kobiety, tak偶e te w聽realnym 偶yciu, nadaj膮聽si臋 tylko do聽zajmowania聽si臋 takimi drobiazgami.

Problem si臋gaj膮cy korzeni.

Obszar sztucznej inteligencji zdominowany jest przez jedn膮 p艂e膰: wed艂ug badania przeprowadzonego przez AI Now Institute, ponad 80% badaczy AI stanowi膮 m臋偶czy藕ni. W聽efekcie budowane przez nich nowe rozwi膮zania technologiczne, oddzia艂uj膮ce na聽r贸偶ne grupy ludzi, cz臋sto przedstawiaj膮 ma艂o zr贸偶nicowan膮, m臋sk膮 perspektyw臋.

Nadanie asystentom g艂osowym kobiecych g艂os贸w zdecydowanie nie聽by艂o przypadkowe, a聽t艂umaczenia tw贸rc贸w Alexy i聽Cortany wskazuj膮 nawet, 偶e wyb贸r ten poprzedzony by艂 dog艂臋bnymi badaniami nad tematem. Badanie rynku przeprowadzone przez Amazona wykaza艂o, 偶e u偶ytkownicy odbieraj膮 kobiecy g艂os jako 鈥瀊ardziej 偶yczliwy i聽pe艂en zrozumienia鈥, a聽co za聽tym idzie, bardziej pomocny (wol膮 jednak m臋ski g艂os, je艣li chodzi o聽wypowiedzi autorytatywne). Natomiast Cortana Microsoftu oparta jest na聽postaci o聽tym samym imieniu wyst臋puj膮cej w聽serii gier komputerowych Halo. W聽grze Cortana to sztuczna inteligencja zawsze przedstawiana jako kobieta 鈥 nic wi臋c dziwnego, 偶e Microsoft chcia艂 wykorzysta膰 popularno艣膰 gry i聽niejako przenie艣膰 posta膰 z聽gry do聽rzeczywistego 艣wiata. U偶ytkownicy Cortany nie聽mog膮 zmieni膰 jej g艂osu na聽m臋ski, nie聽jest tak偶e wiadome, czy i聽kiedy taka opcja zostanie wprowadzona.

Nazywaj膮c Siri tym imieniem, kt贸re niekt贸rzy traktuj膮 jako akronim (SIRI = Speech Interpretation and Recognition Interface), jej tw贸rcy niekoniecznie mieli to na聽my艣li. Siri to tradycyjne skandynawskie imi臋 kobiece, oznaczaj膮ce 鈥瀙i臋kne zwyci臋stwo鈥. Dag Kattlaus, wsp贸艂tw贸rca Siri, zapytany o聽to podczas wywiadu, odpowiedzia艂 鈥瀗asze pierwsze dziecko mia艂o nazywa膰聽si臋 Siri, ale urodzi艂 nam聽si臋 ch艂opiec, kt贸ry otrzyma艂 imi臋 Markus鈥. Czy gdyby wi臋c urodzi艂a mu聽si臋 c贸reczka Siri, tworzony przez niego asystent g艂osowy sta艂by聽si臋 Markusem? Niestety, wydaje聽si臋 to ma艂o prawdopodobne.

Q, zareaguj we聽w艂a艣ciwy spos贸b.

Chocia偶 teraz Siri na聽obra偶aj膮c膮 j膮 wypowied藕 u偶ytkownika mo偶e odpowiedzie膰 m臋skim g艂osem 鈥濶ie wiem, jak na聽to odpowiedzie膰鈥, a聽Asystent Google oferuje kilka wariant贸w g艂osowych do聽wyboru (w tym m臋ski), przed bran偶膮 AI wci膮偶 jest d艂uga droga do聽zwalczania g艂臋boko zakorzenionych stereotyp贸w. Wyra偶anie braku zrozumienia nie聽jest r贸wne aktywnemu reagowaniu na聽s艂owne n臋kanie; tak偶e nadawanie m臋skiego g艂osu asystentowi o聽typowo 偶e艅skim imieniu nie聽rozwi膮zuje tej kwestii na聽wi臋ksz膮 skal臋.

UNESCO proponuje kilka rozwi膮za艅 problemu p艂ci asystent贸w g艂osowych. Jednym z聽nich jest stworzenie g艂osu jak najbardziej pozbawionego cech charakterystycznych dla danej p艂ci (ang. genderless voice or gender neutral voice). Pierwsz膮 pr贸b膮 stworzenia pozbawionego p艂ci asystenta g艂osowego jest Q, efekt wsp贸艂pracy lingwist贸w, technolog贸w i聽projektant贸w d藕wi臋ku. Wed艂ug tw贸rc贸w tego programu, technologia powinna nad膮偶a膰 za聽potrzebami spo艂ecze艅stwa, w聽kt贸rym coraz wi臋cej os贸b nie聽identyfikuje聽si臋 ani jako m臋偶czyzna, ani jako kobieta. Q powsta艂 wi臋c z聽zamierzeniem zlikwidowania uprzedze艅 dotycz膮cych p艂ci w聽programach opartych na聽sztucznej inteligencji. Pracuj膮c nad Q, tw贸rcy nagrali g艂osy oko艂o dwudziestu os贸b, kt贸re identyfikuj膮聽si臋 jako m臋偶czy藕ni, kobiety, osoby transp艂ciowe lub niebinarne w聽poszukiwaniu g艂osu, kt贸ry zazwyczaj 鈥瀗ie mie艣ci聽si臋 w聽m臋skich lub 偶e艅skich granicach鈥. Nast臋pnie zesp贸艂 Q przeprowadzi艂 test z聽udzia艂em ponad 4600 os贸b, kt贸re zosta艂y poproszone o聽ocen臋 g艂osu w聽skali od聽1 (m臋ski) do聽5 (kobiecy). na聽podstawie tego eksperymentu badacze d藕wi臋ku mogli zdefiniowa膰 zakres cz臋stotliwo艣ci neutralny pod wzgl臋dem p艂ci. Nagrali kilka g艂os贸w, pracuj膮c nad tonem g艂osu i聽jego wysoko艣ci膮, by wreszcie uzyska膰 鈥濹鈥.

Opr贸cz stworzenia 鈥瀏enderless voice鈥, UNESCO sugeruje tak偶e, by nieod艂膮cznym elementem asystent贸w g艂osowych sta艂y聽si臋 wbudowane systemy zwalczaj膮ce obra藕liwe traktowanie i聽werbalne molestowanie seksualne, tak, by Alexa czy Siri przesta艂y odpowiada膰 na聽nieprzyzwoite wypowiedzi 偶artem lub brakiem zrozumienia.

Jedn膮 z聽globalnych rekomendacji, p艂yn膮cych z聽raportu UNESCO, jest konieczno艣膰 walki z聽dyskryminacj膮 kobiet w聽szeroko poj臋tej bran偶y sztucznej inteligencji. Nadreprezentacja m臋偶czyzn w聽tym obszarze sprawi艂a, 偶e wyra藕nie zabrak艂o w聽nim kobiecej perspektywy.

Brzmienie g艂osu asystenta g艂osowego nie聽jest jedynie przedmiotem globalnej dyskusji o聽spo艂ecze艅stwie; ma ono te偶 istotne znaczenie dla firm wprowadzaj膮cych voiceboty do聽procesu automatyzacji komunikacji z聽klientem. Przy tworzeniu w艂asnych Actions on Google czy Skills dla Alexy, istnieje mo偶liwo艣膰 wybrania jednego z聽kilku dost臋pnych g艂os贸w 鈥 kobiecych i聽m臋skich. Decyzja o聽typie g艂osu istotnie wp艂ywa na聽osobowo艣膰 kreowanego voicebota, a聽co za聽tym idzie, na聽budowane do艣wiadczenie u偶ytkownika. Pozytywny customer experience jest wa偶nym czynnikiem sukcesu rynkowego 鈥 warto wi臋c pami臋ta膰 o聽tym, by voicebot, kt贸ry w聽pewnym sensie staje聽si臋 rzecznikiem firmy, rzeczywi艣cie odzwierciedla艂 jej warto艣ci i聽by艂 sp贸jny z聽jej wizerunkiem.

Omawiany temat wzbudza wiele kontrowersji, uznali艣my wi臋c, 偶e wypada doda膰 kilka s艂贸w komentarza na聽temat tego, jak wp艂ywa na聽nasze prace w聽K2Bots.AI.

Buduj膮c osobowo艣膰 naszych bot贸w staramy聽si臋 mo偶liwie najlepiej zapewni膰, aby nie聽pozwala艂y one rozm贸wcom na聽z艂e traktowanie. S膮 niesko艅czenie cierpliwe i聽wyrozumia艂e, ale zarazem uprzejmie lecz asertywnie odmawiaj膮 wsp贸艂pracy u偶ytkownikom pos艂uguj膮cym聽si臋 wulgaryzmami czy mow膮 nienawi艣ci.

Zbiegiem okoliczno艣ci, 偶adne z聽naszych dotychczasowych wdro偶e艅 nie聽mia艂o kobiecego g艂osu ani osobowo艣ci. Cz臋艣膰 z聽naszych bot贸w ma m臋skie persony (np. 鈥濪anny鈥 w聽PLAY, 鈥濻zpak Elvis鈥 w聽Ptakach Polskich, czy nasz pomocny Parkingobot), cz臋艣膰 za艣 nie聽ma wyra藕nie okre艣lonej osobowo艣ci i聽p艂ci (np. Desperados, Warta, WOLO). Ciekawym rodzynkiem jest tu nasz Skill na聽Amazon Alexa, kt贸ry pos艂uguje聽si臋 zamiennie g艂osem kobiecym i聽m臋skim (Polish Proverbs).

Monika Pieni膮偶ek, Maciej Maliszewski

Pe艂na tre艣膰 publikacji UNESCO:
https://unesdoc.unesco.org/ark:/48223/pf0000367416/PDF/367416eng.pdf.multi.page=1

Oficjalna strona projektu 鈥濹 鈥 Genderless Voice鈥: https://www.genderlessvoice.com/

殴r贸d艂a danych liczbowych i聽informacji:

  1. https://www.vox.com/future-perfect/2019/6/12/18660353/siri-alexa-sexism-voice-assistants-un-study
  2. https://www.theverge.com/2019/5/21/18634322/amazon-alexa-apple-siri-female-voice-assistants-harmful-gender-stereotypes-new-study
  3. https://thenextweb.com/tech/2019/03/18/worlds-first-genderless-voice-challenging-gender-stereotypes/
31.07.2019.
Chcesz dostawa膰 informacje o nowych wpisach? Zostaw sw贸j adres e-mail.