Worden tekstschrijvers vervangen door algoritmes?

AI-generated content, ofwel, door artificial intelligence geschreven teksten, komt eraan. Sterker nog, het bestaat al. De vraag is: hoe goed zijn die teksten? En komt er ooit een moment dat correcte, creatieve en overtuigende teksten niet langer zijn voorbehouden aan de tikkende vingers van de mens? Met andere woorden: heb ik straks nog werk?

De computer die een boek schreef

Al in 2016 kwam een door een computer geschreven novel door de voorselectie heen van een Japanse literatuurwedstrijd - ironisch gezien was de titel van dat boek ‘The Day A Computer Writes A Novel’

2016. Dat is vier jaar geleden. In digitale-tijdperk-jaren gerekend hebben we het dus over de tijd dat er nog dinosauriërs rondliepen. 

Wil je elke maand een heerlijk verhaal in je mailbox, vol praktische handvatten en verfrissende inzichten rond copywriting? Meld je dan aan voor mijn Brief van de Maand, gelezen door ruim 2.200 professionals.

Een blogartikel in één klik

Ten tijde van die dinosauriërs was een boek geschreven door een robot nog baanbrekend te noemen. Maar, zoals te verwachten viel, is er in de jaren daarna wat techniek betreft het een en ander aan vooruitgang geboekt. En dus is dat bijzondere er inmiddels wel een beetje vanaf. Ter illustratie: bedrijven als Kafkai, Zyro en AI Writer bieden een AI-tool die met één klik een compleet blogartikel voor je uitspuugt. 

Maar, hoe kan dat? 

In grootmoeders tijd waren robots van die dingen die naast een lopende band stonden en simpele, repetitieve handelingen verrichtten. Inmiddels maken ze ingewikkelde berekeningen, besturen en parkeren ze auto’s en houden ze onze eenzame ouderen bezig. De software in die techniek, in hippe termen ‘algoritme’, is dus ‘intelligent’ en wordt daarom vaak aangemerkt als ‘artificial intelligence’. 

Beetje algoritme, beetje machine learning

Kenmerkend aan recente ontwikkelingen op dat vlak is dat AI-software, gebruik maakt van veel data. Heel veel data. Dankzij die veelheid aan informatie kan AI-software extreem slimme inschattingen maken. 

Een ander belangrijk kenmerk is dat die AI-software ‘zichzelf verbetert’, iets wat ook wel ‘machine learning’ wordt genoemd. Kort gezegd komt dat erop neer dat de software ook tijdens het gebruik informatie verzamelt over wat er goed gaat en wat nog niet, meestal aan de hand van allerlei sensoren en feedback van gebruikers. Die informatie gebruikt de software vervolgens om nóg beter te worden in wat het doet. Hoeveel beter? Dat ligt aan de hoeveelheid data die erin gaat en aan de mate waarin de software in staat is die data te interpreteren.  

GPT2

Dat die hoeveelheid data een grote rol speelt als het gaat om hoe intelligent software is, is goed te zien aan GPT2, een project van de non-profit organisatie OpenAI. In dit artikel van The Guardian lees ik dat zij de afgelopen jaren een tekstschrijvende tool ontwikkelden op een fundament van artificial intelligence. Belangrijkste verschil met andere, vergelijkbare tools: vijftien keer zoveel data als het tot dan toe meest intelligente AI-model, aldus Dario Amodei, director of research. De tool heeft ‘getraind’ zoals ze dat zeggen, op een dataset van zo’n 10 miljoen artikelen, ofwel 40 gigabyte aan tekst, ofwel 35.000 exemplaren van Moby Dick.     

Het verschil tussen echt en echt

Het resultaat? Teksten die lastig te onderscheiden zijn van ‘echte’ teksten. Ja, ‘echt’ tussen aanhalingstekens, want dat is dus het probleem: wat is nu nog ‘echt’ en wat niet? En wat zijn de gevolgen als mensen dat onderscheid niet meer kunnen maken? Wat voor organisaties gaan dit soort software gebruiken en met welk doel? Wat zijn dáár de gevolgen van? Daar moet je niet aan denken.

Wie daar wél over nadenken: de mensen bij OpenAI, overigens ooit opgericht door Elon Musk en Sam Altman. Die eerste naam kennen we van Tesla, SpaceX en van zijn sceptische houding ten opzichte van AI; regelmatig waarschuwt hij voor de gevolgen van de ontwikkelingen rond AI.   

Te gevaarlijk om openbaar te maken

De voorlopige conclusie die OpenAI in februari vorig jaar trok: GPT2 is veel te gevaarlijk om openbaar te maken. Geen makkelijke beslissing voor een non-profit organisatie die in principe al zijn onderzoek publiceert, what’s in a name. Wel een wijze beslissing, volgens Jack Clark, hoofd beleid: 

‘’If you can’t anticipate all the abilities of a model, you have to prod it to see what it can do. There are many more people than us who are better at thinking what it can do maliciously.”

Voor het geval dat jij je nog geen voorstelling kunt maken bij de eventuele gevolgen van GPT2: 

En toen kwam Mr. Money binnen

Gelukkig is OpenAI een non-profit, toch? En gelukkig heeft Elon Musk, fervent AI-criticus, daar een dikke vinger in de pap, toch? Nou, Elon Musk is inmiddels weg bij OpenAI en inmiddels hebben ze het ‘non’ in het ‘non-profit’ doorgestreept. Met andere woorden: OpenAI is nu een bedrijf dat geld wil verdienen met een techniek die zij zelf bestempelen als ‘te gevaarlijk om openbaar te maken’. 

Luister je liever dan dat je leest? Bijvoorbeeld tijdens het koken, hardlopen of als je je planten water geeft? Abonneer je dan gratis op de TIMcast, waarmee je naar (bijna) al mijn artikelen kunt luisteren.

Geen verrassing dus dat ze een partnership zijn aangegaan met Microsoft, zo ontdekte ik vorige week. Microsoft teams up with OpenAI to exclusively license GPT-3 language model, luidt het artikel waarop ik stuitte, geschreven door Kevin Scott, Executive Vice President and Chief Technology Officer bij Microsoft. 

Te gevaarlijk om openbaar te maken, maar blijkbaar niet te gevaarlijk om een exclusieve licentie voor af te geven aan een techgigant? 

OpenAI was blijkbaar toch meer geïnteresseerd in profit dan in het onderzoeken van de gevolgen van dit soort technologie. Logisch voor een for-profit organisatie natuurlijk, maar de abruptheid van deze totaal andere koers is op z’n minst bedenkelijk te noemen. Vorig jaar verklaarde OpenAI nog dat GPT2 te gevaarlijk was om openbaar te maken, inmiddels draait de opvolger, het nóg gevaarlijkere GPT3, op het Microsoft-platform. Kevin Scott op 22 september dit jaar:

‘’Today, I’m very excited to announce that Microsoft is teaming up with OpenAI to exclusively license GPT-3, allowing us to leverage its technical innovations to develop and deliver advanced AI solutions for our customers, as well as create new solutions that harness the amazing power of advanced natural language generation.’’

En even verderop:

‘’Our mission at Microsoft is to empower every person and every organization on the planet to achieve more, so we want to make sure that this AI platform is available to everyone – researchers, entrepreneurs, hobbyists, businesses – to empower their ambitions to create something new and interesting.’’

Wie gaat zich nu bezighouden met de ethische kant van dit vraagstuk? Wie onderzoekt de eventuele schadelijke gevolgen van deze technologie? Microsoft zal het niet zijn.

Bijna mens maar nog geen mens

Ja, het baart me zorgen dat het meest geavanceerde stukje AI-technologie ter wereld in handen is gekomen van een techreus - en daarmee in handen van elke organisatie die bereid is voor de mogelijkheden van die technologie te betalen. Ja, het is een eng idee dat we straks alleen nog met pijn en moeite het verschil zien tussen een door mensen of robots geschreven nieuwsartikel. En ja, wetende dat de meeste mensen die pijn en moeite er niet in stoppen tijdens het doorscrollen van hun feeds, voorspel ik een enorme verwarring als gevolg van (nog meer) propaganda, (nog meer) misinformatie en (nog meer) fake news. Het feit dat iedereen straks met één klik op de knop duizenden valse feiten de wereld in kan lanceren, verpakt in betrouwbaar ogende ‘nieuwsartikelen’, maakt dat de wereld mogelijk een stuk instabieler wordt. 

Schrale troost dus dat ik niet verwacht dat mijn vak, het vak van creatieve copywriter en maker van brand stories, zal verdwijnen. Lees dit door GPT3 geschreven artikel maar eens

Ik maak me (geen) zorgen

Het ontbreekt GPT3 en straks ook zijn opvolgers GPT4, GPT5 en GPT99 aan creativiteit en het menselijke vermogen om te interpreteren, internaliseren en daarna, de wereld om zich heen begrijpende, iets nieuws te creëren. De robot valt in herhaling, mist een lekker ritme en een fijne zinsopbouw. Is niet in staat een logisch gestructureerde argumentatie aan elkaar te schrijven met een uitnodigend begin, een overtuigend middenstuk en een prikkelend slot. Laat staan dat hij korte, verleidelijke teksten kan scheppen die producten met storytelling-technieken in emotie wikkelen en je brein in torpederen. 

Nee, ik maak me zorgen over een wereld vol misinformatie, niet over mezelf en het voortbestaan van mijn vak. Zeker niet als een algoritme me daarin gelijk geeft

Handige artikelen die hierop aansluiten

Previous
Previous

Brief van de Maand - Oktober 2020

Next
Next

Brief van de Maand - September 2020