Dat doet het in een open brief, die is ondertekend door meerdere experts binnen het vakgebied, waaronder Stephen Hawking, de oprichters van kunstmatige intelligentiebedrijf Deepmind en Tesla-ceo Elon Musk.
Het instituut stelt dat dergelijke software enorm veel voordelen biedt, maar dat er wel gedacht moet worden aan manieren om de systemen in toom te houden, zodat ze “doen wat we willen”.
Daar is volgens het instituut meer onderzoek voor nodig, onder meer naar het zelflerende aspect van kunstmatige intelligentie.
Zelflerende robots
Het Future of Life Instituut geeft in een bijgevoegd document meerdere voorbeelden, waaronder dat van een zelflerende robot.
Als de kunstmatige intelligentie hiervan zo is geprogrammeerd om een taak uit te blijven voeren, dan zal het systeem altijd situaties vermijden die het volbrengen van de taak in de weg staan.
Dat wordt volgens het instituut problematisch zodra het systeem geherprogrammeerd of gedeactiveerd moet worden, omdat het dat ook zal proberen te vermijden.
Er moet daarom gedacht worden aan uitzonderingen die ingrijpen door menselijke hand mogelijk maken. Future of Life stelt dat dergelijke controle slechts een van de aspecten is van kunstmatige intelligentie waar nog verder onderzoek voor nodig is.
Zelfrijdende auto’s
Ook de wetgeving rondom de techniek verdient aandacht. Dit speelt met name al bij zelfrijdende auto’s die gebruikmaken van zelflerende systemen.
Die zouden het aantal verkeersongevallen kunnen terugdringen, maar tegelijkertijd een sterke toename in rechtszaken betekenen. Dit vanwege onduidelijkheid over de aansprakelijkheid.
Future of Life Institute pleit daarom voor gelijktijdig onderzoek naar de snijvlakken van kunstmatige intelligentie met relevante vakgebieden.
Elon Musk waarschuwde in oktober van vorig jaar al voor de risico’s van kunstmatige intelligentie. Destijds riep hij op tot internationaal toezicht om te voorkomen dat de mensheid iets doms doet en de controle verliest.