Pludselig dukkede nyhed op, der kaldte Flügger-beskyldninger for 'ondsindede': 'Googles AI er blevet forgiftet'
Pludselig dukkede nyhed op, der kaldte Flügger-beskyldninger for 'ondsindede': 'Googles AI er blevet forgiftet'
www.dr.dk
Pludselig dukkede nyhed op, der kaldte Flügger-beskyldninger for 'ondsindede': 'Googles AI er blevet forgiftet'

Ah ja, forgiftet. Kan vi ikke droppe antropomorfiseringen af LLMs? Det er en perfekt case for LLM short comings til undervisningen fremadrettet. Er der nogen der ved om co-pilot, chatgpt, eller andre er hoppet på samme limpind?
Andrej Karpathy skriver, at vi bør tænke på LLM'er mere som [simulatorer] end som [væsener]:
Den type “AI” vi har lige nu og især LLM’er er bare det kinesiske rum. Den har en god algoritme for at give svar der lyder som om den forstår, uden faktisk at have evnen til at forstå, overveje eller reflektere.
Jeg er ikke enig i at tankeeksperimentet udelukker kunstig intelligens, men det passer meget godt på stokastiske papegøjer om ikke andet.
Jeg testede Ecosias nye LLM - som nu drives af Ecosia og ikke OpenAI - og den skrev ikke det samme som Google. Men nu ved jeg ikke hvad der præcist er blevet spurgt om.
Fedt! Jeg sprang ud på det dybe og prøvede Grok (tænkte sandsynligheden for misinformation var størst her), men fik heller ikke et oplagt misvisende svar.