Jeśli udoskonalenie człowieka zadziała, każdy będzie musiał zostać udoskonalony. Inaczej będziemy mieli głębokie społeczne podziały – mówi prof. Stuart Russell
Anna Zagórna: Niedawno Elon Musk pokazał światu chip Neuralink, który chce wszczepiać do ludzkich mózgów. Łączenie umysłu z superszybkim komputerem będzie dla człowieka korzystne czy niebezpieczne?
Prof. Stuart Russell*: Elon postrzega połączenie człowieka z maszyną przede wszystkim jako strategię obronną. Ma ona dać nam szansę nie przegrać już na starcie wyścigu z superinteligentnymi maszynami. Jednak bez względu na to, czy technologicznie te pomysły są wykonalne, należy zadać sobie pytanie, czy ten kierunek stanowi najlepszą możliwą przyszłość dla ludzkości. Jeśli ludzie potrzebują operacji mózgu tylko po to, by przetrwać zagrożenie stwarzane przez ich własną technologię, to być może gdzieś popełniliśmy błąd.
A co, jeśli powstanie nadczłowiek – osoba, której wiedza i zdolności pochodzą nie tylko z jej umysłu, ale także z sieci?
To jest część problemu. Jeśli założymy, że udoskonalenia neuronowe rzeczywiście działają, to powinniśmy też przyjąć, że każdy będzie musiał je mieć. Człowiek pozbawiony takich udoskonaleń zostanie zdegradowany do statusu osoby drugiej kategorii. Ten sam problem mamy z ulepszeniami genetycznymi.
Czy nie powinniśmy więc żądać prawa do prywatności mózgu, myśli, wspomnień lub prawa do równego dostępu do technologii?
Oczywiście, że powinniśmy mieć prywatność. Wyobrażam sobie, że może to być częściowo zagwarantowane, ale z pewnością istnieje ryzyko, że czyjś mózg zostanie bezpośrednio podłączony do internetu. Ludzie mogą znaleźć sposoby, aby przeniknąć do ludzkiego mózgu i kontrolować go. To tak, jakby podłączyć własny układu krwionośny i własną krew do globalnej puli krwi. Może to nie jest dobry pomysł…
Zatem czeka nas określenie czegoś w rodzaju praw człowieka przyszłości, praw nadludzkich?
Chodzi raczej o prawa człowieka w kontekście bezprecedensowego ryzyka i groźby zamachów. Na przykład powinniśmy mieć podstawowe i globalnie gwarantowane prawo do informacji o tym, czy w danej chwili komunikujemy się z człowiekiem, czy z maszyną. Powinniśmy mieć prawo do bezpieczeństwa psychicznego i fizycznego, w tym prawo do życia w środowisku informacyjnym w dużej mierze prawdziwym.
A czy maszyny powinny mieć swoje prawa? Niedawno Światowa Organizacja Własności Intelektualnej (WIPO) uruchomiła wirtualną wystawę, na której prezentuje m.in. tworzenie robotów i zastanawia się, czy powinny mieć prawo do własności intelektualnej. Ale czy jeśli je im damy, to powinny mieć także inne prawa?
Prawa maszyny to bzdura. Pojęcie to służy jednak zwróceniu uwagi na sprawy dotyczące własności i konieczności uregulowania pewnych kwestii prawnych w umowach między projektantami/producentami maszyny a jej użytkownikiem. Niemal na pewno użytkownik, który kupuje maszynę i używa jej do wynalezienia rzeczy, będzie właścicielem wynalazków, a nie konstruktorem maszyny. Jednak umowa może dać konstruktorowi pewien udział w przychodach na podstawie wcześniejszej umowy.
Wywiad powstał w trakcie konferencji CYBERSEC Global 2020 – Europejskie Forum Cyberbezpieczeństwa, zorganizowanej przez krakowski Instytut Kościuszki w dniach 28-30 września. Prof. Stuart Russell był jednym z gości imprezy.
*Prof. Stuart Russell – informatyk i światowej klasy ekspert w dziedzinie sztucznej inteligencji, profesor informatyki na Uniwersytecie Kalifornijskim w Berkeley oraz profesor neurochirurgii na Uniwersytecie Kalifornijskim w San Francisco. W Berkeley założył Centrum Dopasowanej do Człowieka Sztucznej Inteligencji (Center for Human-Compatible Artificial Intelligence). Razem z Peterem Norvigiem napisał najbardziej popularny podręcznik z dziedziny SI: „Artificial Intelligence: A Modern Approach”. Swą najnowszą książkę, „Human Compatible: Artificial Intelligence and the Problem of Control”, poświęcił sztucznej inteligencji dopasowanej do człowieka.
Read the English version of this text HERE