Zapewne większość z nas kojarzy scenę z Matrixa, gdzie Neo podłączony do komputera błyskawicznie nabywa nowe umiejętności. Wszyscy zdajemy sobie sprawę, że to czysta fikcja; opublikowane niedawno badanie zmienia tę scenę z fiction w science-fiction. Choć oczywiście do rzeczywistości z filmu wciąż daleka droga (o ile można nazwać to rzeczywistością).
Memrystory od paru lat stanowią obiekt badań i zainteresowania wielu neuronaukowców, szczególnie tych zajmujących się sieciami neuronowymi. Już około pół roku temu badaczom z University of Massachusetts Amherst udało się za pomocą memrystorów zasymulować to, jak działają synapsy w naszym mózgu. Teraz naukowcy z Francji poszli o krok dalej i stworzyli sztuczną synapsę zdolną do samodzielnego uczenia się.
Czym tak właściwie jest ów tajemniczy memrystor (czyli trochę historii fizyki)
Memrystor jest biernym elementem elektronicznym „wynalezionym teoretycznie” w roku 1971. Pierwszy raz fizycznie został stworzony w roku 2008 przez HP Labs. Ich artykuł opublikowany w „Nature” odbił się głośnym echem w całym środowisku fizyków. Oto coś przewidziane teoretycznie prawie 40 lat wcześniej naprawdę powstało. Memrystor jest opornikiem z pamięcią; nazwa powstała z angielskiej zbitki słów - memristor = memory (pamięć) + resistor (opornik). Jest on wykorzystywany do przechowywania jednego bitu pamięci bez konieczności zasilania. Kiedy prąd przepływa przez niego w jednym kierunku, oporność rośnie, kiedy w płynie w przeciwnym oporność elektryczna maleje. W przypadku braku przepływu prądu memrystor zachowuje swoją ostatnią oporność. Dzięki tym właściwościom oraz nanometrowym rozmiarom szybko zaczęto używać memrystorów do symulacji pracy neuronów i takie urządzenie zwać neurystorem (słowo neuristor znaleźć już można w niektórych słownikach języka angielskiego).
Jak to działa w mózgu (czyli szybka powtórka z biologii)
Mózg przyswaja informacje między innymi dzięki możliwościom zmiany siły połączenia synaps. Postulowane były różne wyjaśnienia, w jaki sposób w jaki sposób może to zachodzić. Jednym z nich jest STDP (spike-timing-dependent plasticity), w skład którego wchodzą długotrwałe wzmocnienie synaptyczne i długotrwałe osłabienie synaptyczne. Jak zaobserwowano STDP, nie potrzebuje żadnej zewnętrznej kontroli ani wcześniejszych bodźców do działania. Przeniesienie tego zjawiska na sieci neuronowe mogłoby być pierwszym krokiem do stworzenia sztucznej inteligencji.
Jak to działa w przypadku sztucznych synaps (czyli łączymy biologię z fizyką)
Naukowcy pracowali na memrystromach opartych na tak zwanym ferroelektrycznym złączu tunelowym (FTJ). Element ten jest bardzo dobrze opisany fizycznie; pozwoliło to na symulację procesu STDP na memrystromach. Zgodnie z założeniami procesu, jeśli w mózgu depolaryzacja błony neuronu presynaptycznego następuje chwilę wcześniej niż depolaryzacja błony neuronu postsynaptycznego, połączenie synaptyczne ulega wzmocnieniu; jeśli jednak neuron postsynaptyczny nie wykazuje takiej przyczynowej reakcji, połączenie ulega osłabieniu. Ten proces zasymulowano właśnie dzięki właściwości memrystorów, która pozwala im na zmianę oporności. Przy takiej symulacji duża oporność odpowiada słabemu połączeniu synaptycznemu, a oporność mała silnemu połączeniu synaptycznemu.
Czego tak właściwie nauczyły się sztuczne synapsy (czyli sedno badania)
Badacze zbudowali sieć memrystorów składającą się z 45 memrystorów ułożonych względem siebie prostopadle w stosunku 9x5; 9 linii symulowało „neurony wejściowe”, a 5 „neurony wyjściowe”. Sieć była całkowicie połączona i układała się w „kratkę”. Neurony wejściowe miały zaprezentowane obrazki o wymiarach 3x3 piksele składające się z szarych kwadratów (tworzyły one trzy wzorce do rozpoznania linie pionowe, poziome lub poprzeczne), dodatkowo docierał do nich losowy szum o określonej amplitudzie (czyli niektóre pozostałe piksele nie były całkowicie białe, a miały różne odcienie szarości; jednak nie tak intensywnie jak te, które tworzyły główną figurę). Każdy neuron wejściowy odpowiadał za 1 piksel. Każdy taki neuron przekazywał informacje do wszystkich neuronów wyjściowych, ponieważ sieć była w pełni połączona. Gdy taki neuron wyjściowy osiągnie wartość progową, generuje on iglicę (w podobny sposób jak dzieje się to w prawdziwych neuronach w mózgu). Trzy z neuronów wyjściowych odpowiadały za obrazki (każdy za inny) i ich aktywacja była równoznaczna z rozpoznaniem obrazka. Dwa pozostałe nie mały przypisanego wzoru i nie powinny generować iglicy. Częstość poprawnego rozpoznania wzrastała wraz ze wzrostem ilości powtórzeń prezentowania danego bodźca, beż żadnej zewnętrznej ingerencji. Skuteczność nauki dla 100 powtórzeń wynosiła 100% dla niskiego poziomu szumu i prawie 80% dla wysokiego poziomu szumu. Wyniki są imponujące, jednak sami naukowcy zastrzegają, że wyniki zmieniają się znacznie dla różnej amplitudy iglic w neuronie wejściowym i wyjściowym. I tak dla amplitudy w neuronie wyjściowym równej 0,82–0,98 V zdolności rozpoznania są najwyższe; wystarczy jednak aby była lekko inna i procent poprawnych odpowiedzi znacznie spada.
Ale gdzie to tak właściwie można wykorzystać (czyli nadzieje na przyszłość)
Publikacja pokazuje nam, jak interdyscyplinarna jest dzisiejsza nauka; mózgiem nie zajmują się w tym badaniu biolodzy czy medycy, a fizycy. Rezultaty osiągnięte w tym badaniu na pewno przyczynią się do wydajniejszego funkcjonowaniu sieci neuronowych. Już dziś mają one bardzo szerokie zastosowania, ale problemem jest możliwość ich samodzielnej nauki. Mimo wszystko i tak były prawdopodobnie odpowiedzialne za jeden z największych przełomów w historii AI. Teraz położono fundament pod możliwość samodzielnej nauki takiej sieci. A kto wie, może przyszłości dzięki podobnym memrystorom powstanie pełnoprawna sztuczna inteligencja? Oby jednak nie taka, jak przedstawiona we wspomnianym na wstępie Matrixie.
Na podstawie:
Boyn, S., Grollier, J., Lecerf, G., Xu, B., Locatelli, N., Fusil, S., Girod, S., Carretero, C., Garcia, K., Xavier, S., Tomas, J., Bellaiche,L., Bibes, M., Barthelemy, A., Saighi, S., Garcia, V. (2017). Learning through ferroelectric domain dynamics in solid-state synapses. Nature Communications 8, article numer: 14736
|
|
|
|