Diverse OpenAI - sjukt imponerende AI

Diskusjonstråd Se tråd i gallerivisning

  • morbid

    Hi-Fi freak
    Ble medlem
    24.08.2018
    Innlegg
    4.727
    Antall liker
    3.092
    En metode, og som vi har brukt med godt hell er Retrieval-Augmented Generation(RAG) sammen med språkmodellen da kan du kontekstualisere og bruke egne data som kilde til output.
     

    Asbjørn

    Rubinmedlem
    Ble medlem
    26.03.2006
    Innlegg
    40.382
    Antall liker
    43.536
    Sted
    Vingulmǫrk
    Torget vurderinger
    2
    En metode, og som vi har brukt med godt hell er Retrieval-Augmented Generation(RAG) sammen med språkmodellen da kan du kontekstualisere og bruke egne data som kilde til output.
    Ja, som sagt, prøvd her også, men ikke veldig imponert over resultatet.

    Fra din link:
    The use of RAG does not completely eliminate the general challenges faced by LLMs, including hallucination.
     

    morbid

    Hi-Fi freak
    Ble medlem
    24.08.2018
    Innlegg
    4.727
    Antall liker
    3.092
    Niks, men reduserer det kraftig, f.eks så er det en stor fordel for språkmodellen å hente god dokumentasjon på det faktiske systemet brukeren vil vite noe om enn å ikke gjøre det.
     

    Asbjørn

    Rubinmedlem
    Ble medlem
    26.03.2006
    Innlegg
    40.382
    Antall liker
    43.536
    Sted
    Vingulmǫrk
    Torget vurderinger
    2
    Jo, ser den, spesielt når det er firma-intern dokumentasjon som forhåpentligvis ikke hadde lekket ut for å bli brukt i generelle treningsdata. Da går man fra 100 % fabulering til kanskje 10 %, men kan fortsatt ikke vite hva som stemmer eller ikke i svarene uten å sjekke selv.

    For example, a chatbot powered by large language models(LLMs), like ChatGPT, may embed plausible-sounding random falsehoods within its generated content. Researchers have recognized this issue, and by 2023, analysts estimated that chatbots hallucinate as much as 27% of the time,[8] with factual errors present in 46% of generated texts.[9] Detecting and mitigating these hallucinations pose significant challenges for practical deployment and reliability of LLMs in real-world scenarios.[10][8][9]
    The hallucination phenomenon is still not completely understood. Researchers have also proposed that hallucinations are inevitable and are an innate limitation of large language models.[73] Therefore, there is still ongoing research to try to mitigate its occurrence.[74] Particularly, it was shown that language models not only hallucinate but also amplify hallucinations, even for those which were designed to alleviate this issue.[75]

    Ji et al.[76] divide common mitigation method into two categories: data-related methods and modeling and inference methods. Data-related methods include building a faithful dataset, cleaning data automatically and information augmentation by augmenting the inputs with external information. Model and inference methods include changes in the architecture (either modifying the encoder, attention or the decoder in various ways), changes in the training process, such as using reinforcement learning, along with post-processing methods that can correct hallucinations in the output.

    Researchers have proposed a variety of mitigation measures, including getting different chatbots to debate one another until they reach consensus on an answer.[77] Another approach proposes to actively validate the correctness corresponding to the low-confidence generation of the model using web search results. They have shown that a generated sentence is hallucinated more often when the model has already hallucinated in its previously generated sentences for the input, and they are instructing the model to create a validation question checking the correctness of the information about the selected concept using Bingsearch API.[78] An extra layer of logic-based rules was proposed for the web search mitigation method, by utilizing different ranks of web pages as a knowledge base, which differ in hierarchy.[79] When there are no external data sources available to validate LLM-generated responses (or the responses are already based on external data as in RAG), model uncertainty estimation techniques from machine learning may be applied to detect hallucinations.[80]
    Link videre:
    1738608889141.png

    Jeg ser det som et fundamentalt problem for LLM’er i alle noenlunde seriøse anvendelsesområder. Det er ikke bare en bug som vil bli fikset i neste release, men en grunnleggende egenskap ved hva LLM’er er og gjør.
     
    Sist redigert:

    PederP

    Hi-Fi freak
    Ble medlem
    27.04.2019
    Innlegg
    8.804
    Antall liker
    24.382
    Sted
    Nordvest på Jæren
    Torget vurderinger
    5
     

    PederP

    Hi-Fi freak
    Ble medlem
    27.04.2019
    Innlegg
    8.804
    Antall liker
    24.382
    Sted
    Nordvest på Jæren
    Torget vurderinger
    5

    Asbjørn

    Rubinmedlem
    Ble medlem
    26.03.2006
    Innlegg
    40.382
    Antall liker
    43.536
    Sted
    Vingulmǫrk
    Torget vurderinger
    2
    Det er fint lite OpenAI kan gjøre for å «slette det ærekrenkende innholdet og justere modellen slik at den ikke genererer uriktige resultater». Den er en bullshitgenerator, og f..n vet hvilke assosiasjoner den koblet sammen for å gi en plausibelt utseende setning. Den har ikke noe forhold til om noe er sant eller ikke.

    Det kan bli interessant juss om dette dekkes av GDPR eller ikke.
     

    PederP

    Hi-Fi freak
    Ble medlem
    27.04.2019
    Innlegg
    8.804
    Antall liker
    24.382
    Sted
    Nordvest på Jæren
    Torget vurderinger
    5
    Det er fint lite OpenAI kan gjøre for å «slette det ærekrenkende innholdet og justere modellen slik at den ikke genererer uriktige resultater». Den er en bullshitgenerator, og f..n vet hvilke assosiasjoner den koblet sammen for å gi en plausibelt utseende setning. Den har ikke noe forhold til om noe er sant eller ikke.

    Det kan bli interessant juss om dette dekkes av GDPR eller ikke.
     

    Asbjørn

    Rubinmedlem
    Ble medlem
    26.03.2006
    Innlegg
    40.382
    Antall liker
    43.536
    Sted
    Vingulmǫrk
    Torget vurderinger
    2

    BurntIsland

    Hi-Fi freak
    Ble medlem
    07.02.2006
    Innlegg
    9.391
    Antall liker
    14.320
    Sted
    Trondheim
    Torget vurderinger
    3
    Det viser seg at administrasjonen i Tromsø kommune har valgt å bruke ChatGPT til å skrive kunnskapsgrunnlaget for en viktig politisk sak, og nå er det avslørt at flesteparten av forskningsreferansene i grunnlaget rett og slett er hallusinert frem av chatboten. Dette hadde bare vært morsomt om det ikke var så tragisk.
     
    Sist redigert:

    BurntIsland

    Hi-Fi freak
    Ble medlem
    07.02.2006
    Innlegg
    9.391
    Antall liker
    14.320
    Sted
    Trondheim
    Torget vurderinger
    3
    Prosjektlederen har nok ikke tenkt å gå før vinden snur kraftig. Dette er bare en bagatell. Fra lokalavisa der oppe (iTromsø? kilde ikke oppgitt der jeg fant bildet)
    1743107648454.png
     

    BurntIsland

    Hi-Fi freak
    Ble medlem
    07.02.2006
    Innlegg
    9.391
    Antall liker
    14.320
    Sted
    Trondheim
    Torget vurderinger
    3
    ^Virker som en nokså arrogant type. 8 skoler risikerte nedlegging på "vitenskaplig" grunnlag. Oppdiktede undersøkelser og forskere som blir tillagt motstridende syn med de de egentlig står for. Har en mistanke om at fasiten ble skrevet først og "kunnskapsgrunnlaget" ble bestilt for å matche foretrukket konklusjon.
    Det er tankevekkende, og nokså skremmende, at om chatboten ikke hadde knotet med referansene så ville ikke dette ha blitt avdekket.
     
    Sist redigert:

    Asbjørn

    Rubinmedlem
    Ble medlem
    26.03.2006
    Innlegg
    40.382
    Antall liker
    43.536
    Sted
    Vingulmǫrk
    Torget vurderinger
    2
    Prosjektlederen har nok ikke tenkt å gå før vinden snur kraftig. Dette er bare en bagatell. Fra lokalavisa der oppe (iTromsø? kilde ikke oppgitt der jeg fant bildet)
    Det er like nødvendig at han får sparken som at kunnskapsministre med tilfuskede mastergrader fikk fyken. Man kan virkelig ikke akseptere sånt. Dette er ikke en kommafeil i en bisetning, men helt bevisst forfalskning av et "kunnskapsgrunnlag" for en vesentlig beslutning. Det få konsekvenser.
     

    tjua

    Hi-Fi freak
    Ble medlem
    19.08.2012
    Innlegg
    4.578
    Antall liker
    3.226
    Sted
    Bergen
    Det er like nødvendig at han får sparken som at kunnskapsministre med tilfuskede mastergrader fikk fyken. Man kan virkelig ikke akseptere sånt. Dette er ikke en kommafeil i en bisetning, men helt bevisst forfalskning av et "kunnskapsgrunnlag" for en vesentlig beslutning. Det få konsekvenser.
    Implikasjonene av denne saken er enorm. I Tromsø leter man nå gjennom flere utredninger med sikte på å finne tilsvarende
    Tillit er brutt
    Tenk når dette sprer seg til all offentlig forvaltning
    De unge som uteksamineres har et helt annet forhold til bruk av tekn9,og i, kilder og kildekritikk en det normalen var for bare kort tid siden. Når de jobber seg inn i/mot beslutningsnivå og takere i offentlig forvaltning blir det kjør
    Og husk på: de unge er trent på innsalg av egen fortreffelighet og håndtering av kommunikasjon
    Tilrivingsøkonomien blir nok den nye olja
     

    Asbjørn

    Rubinmedlem
    Ble medlem
    26.03.2006
    Innlegg
    40.382
    Antall liker
    43.536
    Sted
    Vingulmǫrk
    Torget vurderinger
    2
    Og husk på: de unge er trent på innsalg av egen fortreffelighet og håndtering av kommunikasjon
    Jeg rev verbalt hodet av en ung & lovende som forsøkte å selge oss noe AI-greier i går. Bullshit-filteret mitt gikk fullt og rant over. Tror ikke han hadde en god dag på jobb, dessverre.
     
    • Haha
    Reaksjoner: Nex

    Tweedjakke

    Hi-Fi freak
    Ble medlem
    29.01.2008
    Innlegg
    5.457
    Antall liker
    5.811
    Sted
    Sunnmøre
    I Tromsø leter man nå gjennom flere utredninger med sikte på å finne tilsvarende
    Problemet er at det KI kastar i trynet på oss er måten vi sjølv bruker tekst.

    Eit menneske vil ha sperrar mot å finna på forsking, men ikkje med å belegga ei utgreiing med eit obskurt funn som seinare er tilbakevist.
     

    BurntIsland

    Hi-Fi freak
    Ble medlem
    07.02.2006
    Innlegg
    9.391
    Antall liker
    14.320
    Sted
    Trondheim
    Torget vurderinger
    3
    Sist redigert:

    Tweedjakke

    Hi-Fi freak
    Ble medlem
    29.01.2008
    Innlegg
    5.457
    Antall liker
    5.811
    Sted
    Sunnmøre
    Har lyst til å sitera Jill Walker Retteberg frå kommentarfeltet:

    Hva med klare retningslinjer for hva offentlig sektor faktisk IKKE bør gjøre med KI?
    Her vart KI brukt på verst mogleg måte, for å laga ei (falsk) fagleg utgreiing for å støtta opp under eit politisk vedtak som truleg var upopulært, men kanskje naudsynt. Altså, for å produsera eit administrativt slagvåpen: ein rapport spekka med referansar til forsking.

    «Offeret vart myrda med ein stump gjenstand. Alt vi veit er at han var forskingsbasert.»
     
  • Laster inn…

Diskusjonstråd Se tråd i gallerivisning

  • Laster inn…
Topp Bunn