Kunstmatige intelligentie is tegen kunstmatige intelligentie

Weet je nog de AI-bot op Twitter die binnen de kortste keren allerlei neo-Nazistische uitspraken deed? Het blijkt maar weer dat kunstmatige intelligentie niet altijd te vertrouwen is. Nu komt dat eigenlijk altijd door de input van mensen, maar wat als kunstmatige intelligentie ons waarschuwt voor kunstmatige intelligente zelf?
Kunstmatige intelligentie
Het klinkt als een soort Inception, alleen is dit geen droom in een droom maar een soort waarschuwing in een waarschuwing. Onderzoekers aan de universiteit van Oxford besloten om tijdens hun debat over de ethiek van kunstmatige intelligentie ook kunstmatige intelligentie uit te nodigen. Altijd wel zo netjes: met iemand praten, in plaats van alleen over iemand.

Maar, wat als die persoon zelf ook niet zo te spreken is over zichzelf? Tijdens het debat (via The Conversation) werd al meteen op tafel gegooid dat Dr. Alex Connock en Professor Andrew Stephen beiden niet geloven dat kunstmatige intelligentie ooit ethisch verantwoord zal zijn. De reactie van de AI? Die stemde er volledig mee in: “Het is een gereedschap en net als alle gereedschappen kunnen ze voor goed en voor kwaad worden ingezet.”

Megatron-Turing Natural Language Generation Model
De kunstmatige intelligentie die aanwezig was, was niemand minder dan het Megatron-Turing Natural Language Generation Model, dat onder andere is getraind door miljoenen nieuws-artikelen van tussen 2016 en 2019 en grote aantallen aan posts op Wikipedia en Reddit. Kortom, die weet heel veel over de moderne tijden, want van voor het internettijdperk weet hij -tenzij het in die nieuwe artikelen wordt beschreven- niets.

Op zich is het verhaal over gereedschap vrij logisch en had zo een quote kunnen zijn van een onderzoeker, maar de uitspraken die het model erna deed waren best.. angstaanjagend: “Uiteindelijk denk ik dat de enige manier om een AI-wapenwedloop te voorkomen is om helemaal geen kunstmatige intelligentie te hebben. Dat is de ultieme verdediging tegen AI.”

 

Leave a Reply

Your email address will not be published. Required fields are marked *