Google DeepMind onderzoekt competitief gedrag kunstmatige intelligentie

Dat blijkt uit een nieuwe blogpost op de website van Deepmind, waarin het nieuwe onderzoek wordt gepresenteerd.

Het onderzoek borduurt voort op het zogeheten ‘prisoner’s dilemma’ waarin twee gevangenen voor de keuze staan om elkaar aan te geven tegenover de politie, of om juist te zwijgen. Door samen te werken krijgen zij beide een lagere straf, maar de slimste keuze voor beide gevangenen blijkt alsnog om de ander aan te geven. Dat leidt echter tot een suboptimale uitkomst.

Deepmind wil deze zogeheten speltheorie nader onderzoeken door zulke spellen door zelflerende computersystemen te laten spelen en te kijken hoe zij reageren. Het bedrijf heeft hiervan twee voorbeelden gedeeld, de simpele spellen Gathering en Wolfpack.

In Gathering moeten beide systemen zoveel mogelijk appels zien te verzamelen. Er zijn echter maar een beperkt aantal appels. De computers kunnen ze zelf zo snel mogelijk verzamelen, of ervoor kiezen om via een laserstraal de concurrerende tegenstander tijdelijk buiten spel te zetten. Naarmate het aantal appels schaarser werd, begonnen de systemen elkaar vaker tegen te werken. Ook het opvoeren van de rekenkracht van de systemen zorgde voor minder samenwerking.

In het tweede spel, Wolfpack, moeten de twee systemen samenwerken om een bewegend object in te sluiten en zo te kunnen vangen. Hierbij zorgde een toename in rekenkracht juist voor meer coöperatie.


Risico’s

Volgens Deepmind vormen de uitgevoerde experimenten een nieuwe manier om naar de klassieke speltheorie te kijken en heeft het onderzoek daarom ook toepassingen voor het beter leren begrijpen van zowel menselijk gedrag als kunstmatige intelligentie. 

Met name het gedrag van kunstmatige intelligentie is een veelbesproken onderwerp binnen grote techbedrijven, vanwege de risico’s die mogelijk verbonden zijn aan het overlaten van taken aan geautomatiseerde, zelflerende systemen.

Een aantal techgiganten zijn hiervoor vorig jaar zelfs een apart consortium gestart waarin zij vrij kunnen praten over de ontwikkelingen en risico’s van kunstmatige intelligentie zonder dat daarbij bedrijfsgeheimen in verkeerde handen kunnen vallen.

This entry was posted in tech. Bookmark the permalink.

Leave a Reply

Your email address will not be published. Required fields are marked *

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>