
På detta kan man enkelt svara med ett rungande och säkert: “Njae…. på sätt och vis kanske…”
Så här är läget just nu: I februari 2023 ändrade Google sin tidigare attityd mot AI-genererade texter och började tillåta förekomsten av dem utan att de per automatik påverkade SEO-rankingen negativt.
Beslutet var vid tiden det enda rätta. Efter att ChatGPT 3.5 – och senare ChatGPT 4 – gjorde entré har det blivit mycket svårt att avgöra huruvida en text är skriven av en människa eller en AI. Åtminstone om man tar hjälp av en AI för att avslöja AI. En erfaren redigerare kan däremot lätt upptäcka AI-typiskt sätt att skriva.
Några månader senare lade OpenAI ner sin egen tjänst Classifier, som var tänkt att kunna avslöja om en text var AI-genererad eller ej, då den inte fungerade bra nog. (Den kom bland annat fram till att Shakespeares sonetter var AI-genererade…)
Det Googel gjorde i samma veva som de började tillåta AI-genererad text var att uppgradera sina riktlinjer från EAT till EEAT.
EAT stod för ‘Expertise’, ‘Authoritativeness’ och ‘Trustworthiness’. Med EEAT la dom till ‘Experience’. Dessa riktlinjer är till för att bedöma kvaliteten av sidor på nätet och ligger till grund för deras SEO-värde.
Resonemanget är att om en AI-genererad text lever upp till standarden av EEAT så får läsaren ett mervärde från sitt läsande – och därmed spelar det egentligen ingen roll hur texten skapats.
Resultatet blev att texter skrivna med hjälp av ChatGPT 3.5 – forsade ut över internet strax efter att Google släppte sin blockering. Vi pratar om miljontals nya sidor som poppade upp under mycket kort tid.
Många var de som försökte spara stora summor pengar på att låta AI generera alla dessa SEO-optimerade texter för att generera besökare och klick. Var det rätt strategi?

Nej, det var det inte. Åtminstone inte långsiktigt. I samband med Googles core-uppdatering i mars 2024 avindexerades en stor mängd av dessa texter/sidor. Detta var inte i sig för att man använt AI när de producerades, utan för att de helt enkelt inte levde upp till minimigränsen för EEAT:s standard.
Ingen människa hade gått igenom texterna och kontrollerat kvalitet, relevans och fakta. Till slut kom Google ikapp och sidorna blev SEO-mässigt värdelösa.
Google straffar sidor med låg kvalitet, och AI som får jobba med dåligt ihopsatta prompts och utan eftergranskning av texter ger mycket, mycket ofta låg kvalitet på det den producerar.
Texter som däremot är framställda med väl genomtänkta prompts och kollas av redaktörer har inga problem att få högt värde enligt EEAT.
Typ, precis sådant vi gör på HWT (så fick jag sagt det också… Ärligt talat, jag skrev ju hela denna artikel för att få säga det.).
Alltså:
- AI kan sällan skapa hög kvalitet och relevans utan mänsklig hjälp i en eller annan form.
- Google straffar låg kvalitet och inte AI:s inblandning i sig.
- Texter som genereras med hjälp av AI, som promptats väl och sedan gåtts igenom grundligt av människor kan nå mycket hög kvalitet – men på kortare tid än om texten skrivs från scratch av en människa.
- AI blir lätt en slarvig och lat mytomanisk rasist om den inte hålls efter.