Jeg leste den ærede professor Hintons artikkel om forward-forward lærealgoritme.
In a new NeurIPS paper, Geoffrey Hinton introduced the “forward-forward algorithm,” a new learning algorithm for artificial neural networks inspired by the brain.
bdtechtalks.com
.
Jeg er respektfullt og dypt uenig allerede fra premissene. Han skriver at virkelige neuroner ikke lærer via "backpropagation". Jeg mener at læring er minst to forskjellige ting. Det ene er f eks å lære å gjenkjenne et nytt ansikt, en ny glose, eller å få etset inn i bevisstheten hvor man befant seg 9 sept 2001. Det er single shot, lagring av data. Det holder med en eksponering, lagret, kan kalle frem den faktoiden ved behov.
Det andre er å lære en ferdighet som å gjøre en multiplikasjon, skrive en tekst, uttale et språk, eller spille sjakk. Vi prøver, feiler, reflekterer, prøver igjen, kommer til kort, får feedback, og lærer etterhvert. Klisjeen er at vi behøver ca 10000 timer med "mindful practice" for å bli riktig god i noe. Det er nok litt mer komplisert enn det, siden både antall timer og kvaliteten på øvingen (dvs feedback) har noe å si, men likevel en indikasjon. De fleste som har forsøkt å lære å spille et instrument har vel opplevd at man øver og øver, får det ikke helt til, og neste dag sitter plutselig det fingermønsteret der. Nye neuroner har koblet seg opp i løpet av natten.
"Tapsfunksjonen" er differansen mellom hvordan man gjerne ville låte og det man hører at en selv får til. Selvkritikken og læringen er en høyereordens funksjon enn selve ferdigheten. "Noe" reflekterer og vurderer sin egen (dvs forward-funksjonens) ytelse kritisk opp mot en standard, identifiserer hvor man kommer til kort, og forsøker å gjøre noe med det. Eller i stedet fokusere på det man gjør bra, og forsøke å bli enda bedre på det. Det er kanskje ikke eksakt backpropagation med derivativer av tapsfunksjon og gradient descent, men det ligner.
Hintons forward-forward-algoritme ligner ikke veldig mye på noe jeg kan kjenne meg gjen i, selv om han sier det er mer "naturlig" enn backpropagation:
The idea is to replace the forward and backward passes of backpropagation by two forward passes that operate in exactly the same way as each other, but on different data and with opposite objectives. The positive pass operates on real data and adjusts the weights to increase the goodness in every hidden layer. The negative pass operates on "negative data" and adjusts the weights to decrease the goodness in every hidden layer.
Hmmm, feedforward på negative data for å maksimere badness - kanskje jeg skal prøve det neste gang jeg øver på gitar? Noen får bare forklare meg hvordan. Han skriver også:
Backpropagation through time as a way of learning sequences is especially implausible. To deal with the stream of sensory input without taking frequent time-outs, the brain needs to pipeline sensory data through different stages of sensory processing and it needs a learning procedure that can learn on the fly. The representations in later stages of the pipeline may provide top-down information that influences the representations in earlier stages of the pipeline at a later time step, but the perceptual system needs to perform inference and learning in real time without stopping to perform backpropagation.
Alle kjente organismer med noeslags neuroner behøver å
sove med jevne mellomrom. Det er en helt grunnleggende del av det å ha en hjerne, selv om den er på størrelse med en halv peanøtt. Nettverket behøver å stoppe, stenge av for både "inference" og nye inntrykk, og gjøre - noe. Man kan alltids lagre ting i korttidshukommelsen og arbeidsminnet, men det går fullt, og hvis man forsøker å pugge ny informasjon flere døgn i strekk uten søvn vil det i beste fall holde til over eksamen og forsvinner deretter som dugg for solen. Man har kanskje lagret, men ikke lært.
Så kan man diskutere om "intelligens" er å lagre og hente data fra minne eller å mestre en ferdighet, eller kanskje noe helt annet, men det vil overraske meg stort om Hintons idéer om analoge computere, "dødelige" kretser, og FF-algoritmer blir noe mer enn et sidespor. Man kan ihvertfall ikke gå ut fra at det på magisk vis blir realitet i nær fremtid og løser alle problemer med det eksplosivt økende energibehovet for datasentre som brukes til å generere syntetiske videoklipp av katter.