Diverse OpenAI - sjukt imponerende AI

Diskusjonstråd Se tråd i gallerivisning

  • Tweedjakke

    Hi-Fi freak
    Ble medlem
    29.01.2008
    Innlegg
    4.899
    Antall liker
    5.061
    Sted
    Sunnmøre
    Bobla vil sprekke, så vil man gå over til en mer naturlig utvikling og evolusjon av AI
    Det som uroar meg, som multiplikasjonsdømet viser, er korleis LLM-AI ikkje kan gjera seg nytte av nokre av dei viktigaste verktøya vi har utvikla for å handtera kunnskap, som vitskapsteori, abstraksjon, struktur, logikk, matematikk, og (som @Harry Stoteles har vore innom) ei førestillinga om at påstandar kan vera sanne, kanskje sanne, feil eller «nicht einmal falsch».

    Spol tilbake til siste halvdel av 90-talet, før Google vart den dominerande søkjetenesta: Då var det mange som såg føre seg at semantisk markup og metadata var framtida for informasjon på Internet, og i mikro-skala, at orden og struktur var løysinga for å halda styr på informasjon. Vi ordna epost og filer i ein pinleg nøyaktig mappestruktur, kanskje til og med med automatiserte reglar.

    Så kom Google, og meir generelt, plaintext-søk, og bles alt dette bort.

    Edit: Hugsar korleis eg var fascinert over klypparkivet til Steven Berlin Johnson (han med The Ghost Map, om den siste kolera-empidemien i London).

     
    Sist redigert:

    Asbjørn

    Rubinmedlem
    Ble medlem
    26.03.2006
    Innlegg
    39.163
    Antall liker
    40.592
    Sted
    Vingulmǫrk
    Torget vurderinger
    2
    Jeg leste den ærede professor Hintons artikkel om forward-forward lærealgoritme.
    .
    Jeg er respektfullt og dypt uenig allerede fra premissene. Han skriver at virkelige neuroner ikke lærer via "backpropagation". Jeg mener at læring er minst to forskjellige ting. Det ene er f eks å lære å gjenkjenne et nytt ansikt, en ny glose, eller å få etset inn i bevisstheten hvor man befant seg 9 sept 2001. Det er single shot, lagring av data. Det holder med en eksponering, lagret, kan kalle frem den faktoiden ved behov.

    Det andre er å lære en ferdighet som å gjøre en multiplikasjon, skrive en tekst, uttale et språk, eller spille sjakk. Vi prøver, feiler, reflekterer, prøver igjen, kommer til kort, får feedback, og lærer etterhvert. Klisjeen er at vi behøver ca 10000 timer med "mindful practice" for å bli riktig god i noe. Det er nok litt mer komplisert enn det, siden både antall timer og kvaliteten på øvingen (dvs feedback) har noe å si, men likevel en indikasjon. De fleste som har forsøkt å lære å spille et instrument har vel opplevd at man øver og øver, får det ikke helt til, og neste dag sitter plutselig det fingermønsteret der. Nye neuroner har koblet seg opp i løpet av natten.

    "Tapsfunksjonen" er differansen mellom hvordan man gjerne ville låte og det man hører at en selv får til. Selvkritikken og læringen er en høyereordens funksjon enn selve ferdigheten. "Noe" reflekterer og vurderer sin egen (dvs forward-funksjonens) ytelse kritisk opp mot en standard, identifiserer hvor man kommer til kort, og forsøker å gjøre noe med det. Eller i stedet fokusere på det man gjør bra, og forsøke å bli enda bedre på det. Det er kanskje ikke eksakt backpropagation med derivativer av tapsfunksjon og gradient descent, men det ligner.

    Hintons forward-forward-algoritme ligner ikke veldig mye på noe jeg kan kjenne meg gjen i, selv om han sier det er mer "naturlig" enn backpropagation:
    The idea is to replace the forward and backward passes of backpropagation by two forward passes that operate in exactly the same way as each other, but on different data and with opposite objectives. The positive pass operates on real data and adjusts the weights to increase the goodness in every hidden layer. The negative pass operates on "negative data" and adjusts the weights to decrease the goodness in every hidden layer.
    Hmmm, feedforward på negative data for å maksimere badness - kanskje jeg skal prøve det neste gang jeg øver på gitar? Noen får bare forklare meg hvordan. Han skriver også:
    Backpropagation through time as a way of learning sequences is especially implausible. To deal with the stream of sensory input without taking frequent time-outs, the brain needs to pipeline sensory data through different stages of sensory processing and it needs a learning procedure that can learn on the fly. The representations in later stages of the pipeline may provide top-down information that influences the representations in earlier stages of the pipeline at a later time step, but the perceptual system needs to perform inference and learning in real time without stopping to perform backpropagation.
    Alle kjente organismer med noeslags neuroner behøver å sove med jevne mellomrom. Det er en helt grunnleggende del av det å ha en hjerne, selv om den er på størrelse med en halv peanøtt. Nettverket behøver å stoppe, stenge av for både "inference" og nye inntrykk, og gjøre - noe. Man kan alltids lagre ting i korttidshukommelsen og arbeidsminnet, men det går fullt, og hvis man forsøker å pugge ny informasjon flere døgn i strekk uten søvn vil det i beste fall holde til over eksamen og forsvinner deretter som dugg for solen. Man har kanskje lagret, men ikke lært.

    Så kan man diskutere om "intelligens" er å lagre og hente data fra minne eller å mestre en ferdighet, eller kanskje noe helt annet, men det vil overraske meg stort om Hintons idéer om analoge computere, "dødelige" kretser, og FF-algoritmer blir noe mer enn et sidespor. Man kan ihvertfall ikke gå ut fra at det på magisk vis blir realitet i nær fremtid og løser alle problemer med det eksplosivt økende energibehovet for datasentre som brukes til å generere syntetiske videoklipp av katter.

     
    Sist redigert:
  • Laster inn…

Diskusjonstråd Se tråd i gallerivisning

  • Laster inn…
Topp Bunn