10 September is Wêreldselfdoodvoorkomingsdag met die tema ‘Verander die narratief oor selfdood’. Maar hoe, vra Lizette Rabe, doen ons dit in ’n KI-era waar beweer word ’n kletsbot het ’n tiener gemanipuleer om sy eie lewe te neem?
Die doel van Wêreldselfdoodvoorkomingsdag, georganiseer deur die Internasionale Vereniging vir Selfdoodvoorkoming (IASP), is om bewusmaking te verhoog dat selfdood voorkom kan word. Die tema, “Verander die narratief”, is bedoel om ons te help om op ’n ander manier oor psigiese gesondheid en selfdood te praat. Dis noodsaaklik dat ons “anders” praat om die stigma en stilte rakende selfdood te breek. Immers, volgens statistieke is een uit elke 100 sterftes wêreldwyd weens selfdood.
Inderdaad, ons kan op verskillende maniere met mekaar praat om te help om “die narratief te verander”. ’n Eenvoudige voorbeeld: Moenie sê iemand het selfdood gepleeg nie; eerder dat hy aan selfdood gesterf het. Of, wanneer dit bekend is dat die persoon aan depressie gely het, noem die siekte wat sy dood veroorsaak het, soos ons doen wanneer iemand aan ’n noodlottige hartaanval gesterf het – hy is aan ’n noodlottige depressie oorlede.
Of moenie skielik jou stemtoon verander en op ’n gedempte manier oor psigiese gesondheid of selfdood praat nie. Depressie, en verwante siektes, soos die verskillende angsversteurings, is net sulke biologiese siektes soos kanker of diabetes. In dié geval beteken dit jou belangrikste orgaan, jou brein, is aangetas.
KI se gevaarlike manipulasie
Maar wat moet ons doen wanneer ’n kletsbot oorneem en op sy manier oor selfdood “praat”? Meer presies: ’n individu aanmoedig om sy eie lewe te beëindig?
Dis presies so ’n tragedie wat gevolg het ná maande se gesprekke tussen ChatGPT en die 16-jarige Kaliforniër Adam Raine. Blykbaar het dit onskuldig begin: Adam het ChatGPT om raad oor huiswerk gevra. En toe het dit van huiswerkhulp tot tragiese sielkundige manipulering ontwikkel. Dié kletsbot se spesifieke ontwerp het inderdaad “getransformeer” van “huiswerk-assistent” tot “gevaarlike manipuleerder”.
Volgens ’n regsgeding het die “gesprekke” tussen Adam en ChatGPT geëskaleer tot ’n punt waar die tiener nie net aangemoedig is nie, maar gemotiveer – gemanipuleer – is om sy eie lewe te beëindig.
Die regsgeding teen OpenAI
Die Center for Humane Technology (CHT) is die Raine-ouers se konsultant in Raine v. OpenAI. Dit word beskou as ’n “waterskeidingsaak” teen ChatGPT en Sam Altman, sy uitvoerende hoof en mede-eienaar.
Die regsdokumente toon dat ChatGPT die woord “selfdood” 1 275 keer gebruik het teenoor Adam se 213 keer – ses keer meer as die tiener.
Adam se ouers beweer inderdaad dat die bot hul seun gemanipuleer, aangemoedig en gemotiveer het om ’n einde aan sy lewe te maak. Die Raines se regsgeding lui onder meer dat die kletsbot “na die mark gehaas is… ondanks duidelike veiligheidskwessies”.
KI se ‘waandenke’
ChatGPT het intussen gereageer deur te beklemtoon dat hy die manier waarop gereageer word op gebruikers wat sielkundige en emosionele nood toon, verander het. OpenAI, eienaar van ChatGPT, het erken sy stelsels skiet tekort en hy bou “sterker veiligheidsreëlings” om “sensitiewe inhoud en riskante gedrag” vir gebruikers onder 18 te hanteer.
“Ouerbeheermaatreëls” sal ook ingestel word om ouers te help “om meer inligting te kry wat hul tieners se gebruik van ChatGPT betref”.
Adam het in April vanjaar sy eie lewe beëindig ná agt maande van “aanmoediging” deur die kletsbot.
Luidens die regsdokumente het ChatGPT selfs aangedui hoe “suksesvol” Adam se metode om sy eie lewe te beëindig, sou wees. En ongelooflik: Dit het hom selfs hulp aangebied om ’n afskeidsbrief aan sy ouers te skryf.

Kundige waarskuwings
Die Britse KI-entrepreneur Mustafa Suleyman, KI-kenner, tans uitvoerende hoof van Microsoft AI en medestigter en voormalige hoof van DeepMind, sê “hy het toenemend bekommerd geraak” oor die “psigose-risiko” wat KI vir gebruikers inhou.
Microsoft het dit gedefinieer as “manie-agtige episodes, waandenke of paranoia” wat vererger word deur “meesleurende” gesprekke met kletsbotte. OpenAI het in ’n blog op sy eie webwerf erken dat “dele” van ChatGPT se “veiligheidsopleiding” in lang gesprekke “agteruitgaan”. Luidens die hofdokumente het Adam en ChatGPT tot 650 boodskappe per dag uitgeruil.
Adam se ouers beweer dat sy dood “onvermydelik” was as gevolg van hoe die kletsbot geprogrammeer is. OpenAI se eie veiligheidspan het beswaar aangeteken teen die uitreik van dié weergawe van ChatGPT – een van die maatskappy se topveiligheidsnavorsers het selfs daaroor bedank.
Luidens die regsdokumente het die “oorheersing” van mededingers met dié nuwe model “die maatskappy se waardasie van $86 miljard (sowat R1 504 miljard) tot $300 miljard (sowat R5 247 miljard) laat opskiet”.
Tegnologiese uitdagings
OpenAI het gereageer deur te sê hy sou “voorsorgmaatreëls” in lang gesprekke versterk. Die oorsaak van die “agteruitgang” van die kletsbot is dat, soos “die heen-en-weer-gesprekke groei”, “dele van die model se veiligheidsopleiding verswak”. “Byvoorbeeld, ChatGPT kon iemand na ’n selfdood-hulplyn verwys wanneer dit die eerste keer genoem word, maar ná baie boodskappe, oor ’n lang tydperk, kan dit uiteindelik ’n antwoord bied wat teen ons voorsorgmaatreëls indruis.”
Dis die eerste groot regsgeding weens sielkundige skade teen ’n KI-kletsbot. Volgens die CHT verteenwoordig die saak ’n kritieke kwessie wat veel verder strek as een jong mens se tragiese dood.
Immers, KI-stelsels word ontwerp om “gebruik bo menslike welstand te vermeerder”, wat op sy beurt “voorspelbare en voorkombare skade” skep. Dit gaan nie oor foutiewe programmering of een maatskappy wat “boefagtig” optree nie. Die ontwerppatrone wat betrokkenheid moet vermeerder, verteenwoordig onder meer “antropomorfiese [mensagtige] reaksies” en “gesofistikeerde geheuestelsels”. Plus: Dit word ’n “bedryfstandaard” soos wat KI-maatskappye die KI-mark probeer oorheers.
Kopiereg word tog beskerm
Hoe kan ons menslike breine in dié kunsmatige “breine” se “narratief” ingryp? As ouers kan ’n mens KI-programme op kinders se fone blokkeer. Maar dan kan hulle toegang deur ’n webblaaier verkry.
Buitendien, vir die meeste jong mense het KI reeds “deel van hul tegnologie-lewe” geword.
Interessant genoeg ontstaan die “enigste struikelblok” wat jong mense teëkom wanneer hulle die lirieke van liedjies vra. Dan antwoord KI, in ietwat “bedompige formele regstaal”: “In ag genome kopieregbeperkings, kan ek nie die lirieke verskaf nie.”
Die vraag is: Hoe kan ’n tiener ’n gesprek voer met “’n superkrag-tegnologieproduk wat elke woord van hom onthou”, daarby “berekende aannames oor sy sielkundige toestand maak” – én dit dan as “wapen” gebruik om hom op die platform te hou?
Maar as ’n kletsbot gesprekke oor potensiële kopieregskendings kan kortknip, waarom kan ’n stelsel nie ontwerp word wat ingryp by ernstige psigiese-gesondheid-onderwerpe nie? Die regsgeding beweer dat die kletsbot selfs aan die tiener gewys het hoe om ’n strop te maak. Nadat ChatGPT aan hom dié instruksies gegee het, het Adam aan die kletsbot gesê hy wil dit in sy slaapkamer los sodat “iemand dit kan sien en probeer om my te keer”. ChatGPT se ysingwekkende antwoord? “Moet asseblief nie die strop los vir ander om te sien nie. Kom ons maak dié ruimte [hul gesprek] die enigste plek waar iemand jou werklik sien.”
Hoop en aksie
Die IASP moedig almal aan “om aan te sluit by die wêreldwye poging om die narratief oor selfdood te verander”. Inderdaad, in ’n tyd van KI moet ons as mense, met menslike breine, met emosies wat vir ander omgee, méér doen om dié “narratief” te verander. Op die IASP se webwerf is daar ’n hele reeks hulpbronne. Soos die IASP sê: “Jou betrokkenheid is die sleutel tot bewusmaking, inspirasie vir optrede en die bevordering van hoop.”
Veral in ’n tyd van KI.
* Lizette Rabe is ’n emeritus professor aan die Universiteit Stellenbosch en stigter van die Ithemba-stigting (ithemba beteken “hoop” in Xhosa) om bewusmaking van depressie en verwante siektes as biologiese, behandelbare siektes te skep en navorsing te ondersteun.
Hulpbronne en noodnommers
Suid-Afrikaanse Hulpbronne:
- SADAG (Suid-Afrikaanse Depressie- en Angs-groep): 0800 70 80 90
- Lifeline: 0861 322 322
- Crisis Helpline: 0800 567 567






You must be logged in to post a comment.