Sieci neuronowe są zapominalskie. To główna przeszkoda w ich rozwoju. Już wkrótce może się to zmienić

Sieci neuronowe od lat borykają się ze zjawiskiem tak zwanego „katastrofalnego zapominania”. Proces uczenia się sieci polega w dużym uproszczeniu na wzmacnianiu połączeń pomiędzy wirtualnymi neuronami. Zbiór danych, na którym sieć się uczy, jest przetwarzany na sygnały wzbudzające kolejne warstwy neuronów. Im częściej jakieś połączenie jest wzbudzane – tym jest mocniejsze. Problem pojawia się, kiedy ten sam model chce się nauczyć nowej rzeczy. Nowy zbiór danych powoduje zmianę wcześniej ustawionych wartości. Nowa umiejętność jest „nadpisywana” i powoduje utratę poprzedniej.

Jeśli najpierw nauczymy sieć neuronową odróżniać psy od kotów, a następnie ten sam model nauczymy odróżniać niedźwiedzie od lisów, to pierwsza umiejętność pójdzie w zapomnienie.

Badacze sztucznej inteligencji od jakiegoś czasu próbują radzić sobie z tym problemem. W zeszłym roku pisaliśmy o algorytmie MER opracowanym przez IBM. Najbardziej obiecującym kierunkiem jest próba zaimplementowania mechanizmu, który działa w naszym mózgu i jest kluczowy dla procesu uczenia.

Jak czytamy na stronie Singularity Hub, mechanizm powtórki odkryto w latach 90. Naukowcy badający aktywność mózgu myszy podczas snu zaobserwowali zaskakującą aktywność w obszarze hipokampu. Nie była przypadkowa – jej przebieg był podobny do tego, jaki obserwowano wcześniej w czasie, kiedy myszy uczyły się poruszać po nowym labiryncie. Mózg odtwarzał je podczas snu, jednak nie jeden do jednego, tylko jakby w przyspieszeniu.

Późniejsze badania pokazały, że ten mechanizm jest kluczowy w procesie uczenia i zapamiętywania. Nasz mózg podczas snu powraca do nowych doświadczeń, odtwarza je i powtarza, utrwalając nowe połączenia, stabilizując nabytą wiedzę.

Jeśli nasza sieć z mechanizmem powtórki najpierw nauczy się odróżniać koty od psów, a potem – osobno – niedźwiedzie od lisów, będzie umiała odróżnić też koty od lisów bez konieczności dodatkowego szkolenia

Gido van de Ven

Spece od SI głowią się, jak zastosować tę sztuczkę do sieci neuronowych. Wśród nich są naukowcy z Houston – Gido M. van de Ven z Baylor College of Medicine i Andreas S. Tolias z departamentu inżynierii elektrycznej i komputerowej Rice University. W swojej pracy, zatytułowanej „Generative replay with feedback connections as a general strategy for continual learning”, proponują nowatorskie rozwiązanie w kwestii katastrofalnego zapominania.

Badacze zgadzają się, że mechanizm powtórki to najlepsze znane dotychczas rozwiązanie problemu. Zauważają jednak trudności w jego implementacji.

„Rozwiązaniem byłoby przechowywanie wcześniej napotkanych przykładów i powracanie do nich podczas nauki nowych rzeczy. Choć takie ‘odtwarzanie’ czy ‘powtarzanie’ rozwiązałoby problem katastrofalnego zapominania, skalowalność tego rozwiązania jest wątpliwa. Ciągłe ponowne trenowanie na wszystkich poprzednio wyuczonych zadaniach byłoby wysoce nieefektywne, a ilość danych, które musiałyby być przechowywane, szybko stałaby się niemożliwa do ogarnięcia” – zauważają naukowcy w magazynie „Nature Communications”.

Biorąc pod uwagę, że modele uczenia maszynowego są szkolone na milionach przykładów dla jednego zadania, konieczność przetwarzania wielu takich zestawów stanowiłaby nie lada problem.

Jak czytamy w Singularity Hub, badacze z Houston jeszcze raz przyjrzeli się temu, jak to robi nasz mózg. Nasz mechanizm powtórkowy nie działa w oparciu o wierne kopie wcześniejszych doświadczeń. Zamiast tego korzysta z czegoś, co przypomina nasze własne wspomnienia, które są rekonstrukcją, wypadkową rzeczywistości, naszych wcześniejszych doświadczeń, światopoglądu itd.

Zaprezentowany przez uczonych mechanizm GR (generative replay – generatywna powtórka) działa w podobny sposób. Zamiast używać do wzmacniania pamięci przykładów z wcześniejszych zbiorów danych, model sam je generuje, „wyobraża” je sobie na podstawie wcześniej nabytych umiejętności.

Model okazał się zaskakująco skuteczny. Zdeklasował inne modele zapobiegające katastrofalnemu zapominaniu. Był w stanie nauczyć się wykonywać 100 różnych zdań bez utraty umiejętności wykonywania poprzednich. Co ciekawe, system jest w stanie generalizować zdobytą wiedzę i wykorzystać ją w innych okolicznościach.

„Jeśli nasza sieć z mechanizmem powtórki najpierw nauczy się odróżniać koty od psów, a potem – osobno – niedźwiedzie od lisów, będzie umiała odróżnić też koty od lisów bez konieczności dodatkowego szkolenia. Co więcej – im więcej system się uczy, tym lepszy jest w uczeniu się kolejnych rzeczy” – mówi Gido van de Ven w informacji prasowej cytowanej przez EurekAlert!.

To może być przełom w rozwoju sztucznej inteligencji. Pozwoli budować mniej wyspecjalizowane, bardziej elastyczne i wszechstronne algorytmy, zdolne do ciągłego uczenia. Może się okazać, że to istotny krok w stronę rozwoju ogólnej sztucznej inteligencji.