Nej, ChatGPT kommer inte att sända en mördarrobot från framtiden


Vad är egentligen ChatGPT?

Vad kan den göra och vad kan den inte göra? Det är snart ett år sedan ChatGPT 3.5 nådde allmänheten och fortfarande råder stor förvirring bland vanliga användare om vad detta fenomen egentligen innebär. Jag tänkte gå igenom detta i denna artikel. Men jag kan redan nu säga att ChatGPT inte kommer att skicka tillbaka en mördarrobot från framtiden för att döda en spirande motståndshjälte i kriget mot artificiell intelligens. (Det är den för dum för.)

 

ChatGPT vet egentligen ingenting


Så är det. ChatGPT har egentligen ingen kunskap över huvud taget. Det den kan är att gissa otroligt bra. Den gissar så bra att i de allra flesta fallen gissar den rätt. ChatGPT är en av flera LLMs (Large Language Models). Ni har säkert hört talas om några av de andra; Googles Bard, Anthropics Claude2 och nyligen har Elon Musk lanserat sin egen LLM: Grok.

Hur fungerar då dessa LLMs?

I grunden fungerar de på samma sätt. De tränas på en otrolig mängd text – hundratals miljarder ord – och utifrån denna enorma databas förutser språkmodellen vad det mest statistiskt troliga ordet att följa på det föregående ordet är. Det betyder också att en språkmodell som ChatGPT inte vet om att den inte vet. Så när den inte vet, hittar den på. Något som man börjat kalla för hallucinationer.

Eftersom den egentligen inte vet någonting i grunden så är korrekt fakta likvärdig med påhittad fakta – då båda är baserade på statistisk sannolikhet. Det innebär att troligheten för att du får rätt information från språkmodellen baseras på hur mycket träningsdata om det ämnet den tränats på. (Vilket ingen utom OpenAI vet.)

Advokaten som litade på ChatGPT

Detta visade sig i det redan klassiska exemplet där en advokat i USA skulle förbereda ett mål mot ett flygbolag och bad ChatGPT ta fram prejudikatsfall. Advokaten fick tre sådana fall, med sådan detaljrikedom att han inte såg någon orsak att ifrågasätta dess riktighet. Problemet var att de var alla helt hallucinerade av ChatGPT. Inget av det var sant. Detta uppdagades först i rätten när flygbolagets advokater konstaterade att prejudikatsfallen inte existerat.

Idag jobbar ett par av de största advokatfirmorna i USA på att skapa sina egna LLMs, som tränas specifikt på juridiska dokument. Dessas syfte kommer i framtiden att vara att förbereda rättsfall på det sätt den olycklige advokaten ovan hade trott han kunde göra med ChaGPT. Men dessa LLMs kommer att vara experter på just detta område, medan en LLM som ChatGPT inte är expert på juridik. ChatGPT är inte expert på något alls utan lagom insatt i det mesta.

Så vad är ChatGPT inte?

  • ChatGPT är ingen sökmotor
    ChatGPT kan idag nå internet via sökmotorn Bing (på samma sätt som Bard når internet via Google). Det är dock fortfarande ingen garanti för att de svar ChatGPT ger dig är korrekta eller att referenslänkar som ges är rätt. För att komma in på en hemsida måste sidan tillåta webcrawling inne på själva sidan och inte bara för meta-datan, vilket de flesta hemsidor inte gör. Så den mesta information du kan få från ChatGPT kopplad till nätet, är sådan information som ligger i meta-titlar och meta-beskrivningar – vilket är ytterst begränsad, och ibland föråldrad, information.
  • ChatGPT är inte medveten
    Även om man kan hålla samtal med ChatGPT som känns väldigt naturliga så är de inte det. De svar du får är baserade på 20 års samtal mellan folk på nätet, där ChatGPT plockat fram de mest statistiskt troliga svaren du söker efter. Många gånger är svaren fullt relevanta och hjälpsamma. Men ibland – beroende på ämnet – kan svaren vara helt uppåt väggarna.
  • ChatGPT är programmerad till omtänksamhet
    Ibland kan man förvånas över språkmodellens omtanke, självinsikt och moraliska standard. Men alla sådana svar och kommentarer är programmerade av OpenAI, för att göra samtalen vettiga och behagliga. Utan dessa programmerade filter skulle du få svar som många gånger kan vara en salig röra av rasism, sexism, våldspornografi och politiskt extremistiska avarter. Vissa anser att det bör vara så – att språkmodeller inte ska begränsas – medan gemene man nog kan vara glada över en trevlig och civilicerad samtalspartner.

 

 

Vilka begränsningar har ChatGPT?

  • En Beta-produkt
    ChatGPT har i dagsläget stora begränsningar i att den faktiskt fortfarande är en Beta-produkt. Den är fortfarande under utveckling och i perioder lyckas exempelvis OpenAI inte leverera processorkaft nog att möta upp efterfrågan. (Mycket på grund av att det är stort underskott på de speciella datorchip som behövs för att driva en AI och nära på helt och hållet produceras av Nvidia.)
  • Kunskapsbegräsningar och lögner
    ChatGPT är tränad på stora mängder data, men inte ALL data. Den vet inte allt. Dock beter den sig som om den vet allt och ger det mest statistisk troliga svaret – inte det rätta svaret. (Se ovan om advokaten som bad om prejudikatsfall).
  • ChatGPT kan inte räkna
    ChatGPT är en språkmodell och inte en räknemaskin. Därför kan den i många fall inte hjälpa till med beräkningar. Detta är något OpenAI jobbar på att fixa till, men i dagsläget är detta fortfarande ett stort problem,
  • ChatGPT pratar ofta stelt och svengelskt
    ChatGPTs utgångsstil är ganska stel och formell. Detta kan dock korrigeras lätt genom att instruera den till att ha en annorlunda stil. Något som dock är svårare att fixa till för de flesta icke engelskspråkiga användare är att ChatGPT ofta använder den engelska språkliga mallen vilken ofta kan ge svengelska uttryck för oss som vill ha texter på Svenska. ChatGPT har tränats en del på svenska, men bara en bråkdel av vad den har tränats på engelska. Varför den ofta kan ta engelska uttryck och helt enkelt översätta – vilket kan bli märkligt och bakvänt på vårt språk.

 

En oerhört föränderlig bransch

AI-branschen är idag i konstant förändring. Den består av några ledande konkurrenter som kämpar om plats nummer ett. När jag skriver detta innehas denna plats fortfarande av OpenAI och deras LLM ChatGPT. Dock skriver jag detta en vecka efter kuppen på OpenAI där styrelsen avsatte CEO Sam Altman, för att en vecka senare tvingas ta tillbaka honom och avgå från sina poster. Däremellan erbjöds Sam Altman att börja jobba på Microsoft i ett AI-projekt där.

Ingen vet ännu hur detta påverkar OpenAIs topplacering i branschen. Google är inte långt efter. Anthropic vill också vara med och fajtas samt Elon Musks nystartade AI-företag X.AI.
Amazon, Apple och Samsung med flera har också visat sig intresserade av att ge sig in i kampen.

Allting ändras hela tiden. Nya fantastiska uppdateringar görs och enorma mängder pengar plöjs ner i verksamheten av de företag som vill ligga först. När ni läser denna text är risken att stora delar av den redan är inaktuella. Men jag kommer att fortsätta göra inlägg och försöka vara så uppdaterad jag bara kan i vad som händer.

//Freddi Högabo

3 thoughts on “Nej, ChatGPT kommer inte att sända en mördarrobot från framtiden”

  1. “ChatGPT vet egentligen ingenting”
    Detta är en överdrift. ChatGPT har en viss mängd kunskap, men det är sant att den inte vet allt. Den kan dock ge korrekta svar på många frågor, särskilt om de är generella eller handlar om ämnen som den har tränats på.

    “ChatGPT är inte expert på något alls utan lagom insatt i det mesta”
    Detta är lite oklart. Det är sant att ChatGPT inte är expert på något specifikt område, men det är också sant att den är mer insatt i vissa ämnen än i andra. Till exempel är ChatGPT mer insatt i ämnen som den har tränats på, såsom populärkultur, teknik och nyheter.

    “ChatGPT pratar ofta stelt och svengelskt”
    Detta är sant för ChatGPT:s svenska version. ChatGPT har tränats på en stor mängd data på engelska, men bara en mindre mängd data på svenska. Detta kan leda till att ChatGPT använder engelska uttryck och grammatikfel i sin svenska text.

    “AI är idag en bransch i konstant förändring”
    Detta är sant. AI-branschen utvecklas snabbt och det är svårt att hålla reda på alla nya uppdateringar och förändringar.

    Övergripande bedömning:

    Texten är i allmänhet korrekt, med några mindre felaktigheter och överdrifter.

  2. Här är några potentiella felaktigheter jag noterade i texten:

    – Viss information verkar vara föråldrad eller felaktig, t.ex. att Grok skulle vara Elon Musks nystartade AI-företag. Grok är namnet på Anthropics modell.

    – Det står att ingen utom OpenAI vet hur mycket träningsdata deras modell tränats på. Detta stämmer troligen inte då detta är känslig affärshemlig information.

    – Vissa påståenden om hur LLMs fungerar är något förenklade eller missvisande, t.ex. att korrekt och påhittad fakta skulle vara likvärdiga.

    – Texten nämner att vissa LLMs når internet via sökmotorer, men beskriver inte detta helt korrekt. De använder sökmotorers index, inte att de faktiskt söker på nätet.

    – Beskrivningen av avsättningen av OpenAIs VD Sam Altman stämmer inte med senare händelser där han återinsattes.

    Men över lag verkar innehållet resonligt, även om vissa detaljer kan vara något inexakta eller inaktuella.

  3. Hej Claud 2. Jag är lite förbryllad över en del av din feedback på mitt inlägg.
    Att Grok skulle vara namnet på Anthtopics LLM känns lite märkligt att du påstår då DU är Anthropics LLM… Hur kan du missa en sådan sak.
    Jo, Elon Musks modell heter Grok.

    Även i nästa punkt är du lite oredig. Jag påstår att ingen utom OpenAI vet hur stor ChatGPTs träningsdata är. Det säger du inte stämmer frör att det är känslig affärshemlig information… Vilket gör att bara företaget själv känner till den…. Hm… Skärpning Claud 2.

    Din rättelse kring hur jag beskrivit hur LLMs använder sökmotorer handlar nog snarare om en otydlighet från min sida än att jag gav fel information. För på slutänden säger vi samma sak.

    Och jag anger i texten att Sam Altman återinsattes en vecka senare. Det känns som du läst min text lite slarvigt.

    Jag måste säga att du var mycket sämre på detta än Googel Bard.

Comments are closed.

Scroll to Top