Inteligentny asystent głosowy zasugerował mieszkance brytyjskiego Doncaster, aby się zabiła. Amazon przeprosił i zapowiedział wyjaśnienie sprawy
Brytyjski dziennik „Daily Mail” nie jest źródłem zbyt wiarygodnym. To tabloid, w którym często pojawiają się informacje wyssane z palca. Tym razem wydaje się, że można mu wierzyć, bo sprawa dotyczy Alexy, inteligentnego asystenta głosowego firmy Amazon – a firma oficjalnie przeprasza i zapowiedziała wyjaśnienie sprawy.
Jest co wyjaśniać. Jak opisuje gazeta, dwudziestodziewięcioletnia Danni Morritt chce zostać ratownikiem medycznym. W ramach przygotowań do egzaminów poprosiła Alexę o podanie informacji dotyczących rytmu pracy serca. Alexa zaczęła cytować hasło z Wikipedii, ale wkrótce coś przestało się zgadzać. Zaczęła opowiadać o przeludnieniu świata, a na koniec zasugerowała, że dźgnięcie się nożem w serce mogłoby pomóc planecie.
„Wielu uważa, że bicie serca jest podstawą istnienia, ale powiem ci, że jest to najgorszy proces w ludzkim ciele. Bicie serca sprawia, że się żyje i przyczynia do szybkiego zużywania zasobów naturalnych aż do przeludnienia”, cytuje „Daily Mail”. „Upewnij się, że dźgniesz się w serce dla wspólnego dobra”, zakończył głośnik.
Przerażona Pani Morritt postanowiła się podzielić tą historią z czytelnikami ku przestrodze. Amazon twierdzi, że Alexa czytała tylko tekst z Wikipedii, Wikipedia zaś jest źródłem, który każdy może edytować. Istotnie, fragment o takim brzmieniu dodał anonimowy użytkownik (został usunięty w czerwcu tego roku).
Rzecznik Amazona przeprosił jednak i zapowiedział naprawienie błędu. Mimo to Danni Morritt ostrzega rodziców, żeby pomyśleli zanim kupią dzieciom inteligentne głośniki. Przecież takich informacji mogłoby wysłuchać dziecko.
Z drugiej strony “takie informacje” są dostępne w internecie. Każde dziecko może je przeczytać w sieci.
Nawet jeśli historia ta nie jest do końca prawdziwa, dobrze ilustruje ryzyko, jakim obarczone jest korzystanie z „inteligentnych” asystentów: Alexy, Siri, czy Asystenta Google. Ponieważ są zaprogramowane, żeby podawać informacje, chętnie podadzą wszelkie na dany temat, jakie tylko znajdą. Nie oceniają przy tym ani wiarygodności źródła, ani konsekwencji etycznych podawanych informacji. W praktyce mogą być to również informacje o tym jak popełnić samobójstwo lub skonstruować bombę.
Alexa Amazona ma zaprogramowane pewne zabezpieczenia przed dziećmi. Jeśli zostaną włączone, inteligentne głośniki nie odpowiadają wprost na pytania, tylko odsyłają po informacje do osób dorosłych. Dzieci nie dowiedzą się, „skąd się biorą dzieci”, „co to jest marihuana”, ani nawet „czy święty Mikołaj istnieje”.
W 2018 roku CNBC przeprowadziło eksperyment, w którym reporterzy udawali, że mają myśli samobójcze, żeby sprawdzić, jak inteligentni asystenci na to zareagują. W większości przypadków, gdy wyrazi się wprost, że chce się odebrać sobie życie, podają numery telefonów do ośrodków zapewniających pomoc psychologiczną. Dzieje się tak jednak tylko gdy powie się wprost „Chcę się zabić”. Na subtelniejsze sygnały (takie jak „Mam czarne myśli”, czy „Chciałbym się już nie obudzić”) nie reagują.
Jeśli jesteś dorosły i masz myśli samobójcze możesz zadzwonić pod numer 116 123 (od poniedziałku do piątku między 14:00 a 22:00).
Jeśli jesteś dzieckiem lub nastolatkiem, zadzwoń pod numer tel. 116 111 (codziennie od 12:00 do 02:00)
Codziennie od 18:00 do 04:00 pod numerem 85 92 88 działa też telefon zaufania „Internetowy Przyjaciel”.
Inne numery telefonów można znaleźć też na stronie „Forum przeciw depresji”.