In dit artikel gaan we Future of Life Institute vanuit verschillende perspectieven verkennen. Future of Life Institute is een onderwerp dat de afgelopen jaren de aandacht van velen heeft getrokken en de gevolgen ervan zijn op allerlei terreinen voelbaar geweest, van wetenschap tot populaire cultuur. Op de volgende paar pagina's zullen we onderzoeken wat Future of Life Institute betekent, waarom het belangrijk is en wat de relevantie ervan is in de wereld van vandaag. Door dit onderwerp vanuit verschillende invalshoeken te benaderen, hopen we een alomvattend overzicht te bieden dat uitnodigt tot reflectie en debat.
Future of Life Institute | ||||
---|---|---|---|---|
Geschiedenis | ||||
Opgericht | maart 2014 | |||
Structuur | ||||
Voorzitter | Max Tegmark | |||
Raad van bestuur | Anthony Aguirre, Meia Chita, Victoria Krakovna en Jaan Tallinn | |||
Werkgebied | Wereldwijd | |||
Plaats | Campbell, Verenigde Staten en Brussel, België | |||
Type | Niet-gouvernementele organisatie | |||
Doel | Verminderen van existentiële risico's, met name van kunstmatige intelligentie | |||
Aantal werknemers | 25 | |||
Media | ||||
Website | futureoflife.org | |||
|
Future of Life Institute (FLI) is een internationale stichting die die zich inzet om extreme risico's van technologie te verminderen. De nadruk ligt daarbij op risico's van geavanceerde kunstmatige intelligentie (AI).
Tot de oprichters behoren kosmoloog Max Tegmark en Skype-medeoprichter Jaan Tallinn. Tesla CEO Elon Musk is als adviseur betrokken.
Het werk van het instituut, dat in 2014 werd opgericht, bestaat uit drie hoofdonderdelen: voorlichting, het verstrekken van subsidies voor onderzoek, en beleidsadvisering bij de Verenigde Naties, de Amerikaanse regering en de instellingen van de Europese Unie.
In 2023 nam directeur beleid Mark Brakel namens het instituut deel aan de eerste wereldwijde top over de gevaren van AI, de zogeheten AI Safety Summit in het Verenigd Koninkrijk.[1]
Eind maart 2023 publiceerde Future of Life een open brief waarin opgeroepen werd om alle trainingen van AI's die sterker zijn dan GPT-4 gedurende zes maanden te pauzeren. De brief werd ondertekend door prominente AI-onderzoekers en technici, onder wie AI-pionier Yoshua Bengio, Apple medeoprichter Steve Wozniak en Tesla CEO Elon Musk. In de brief uitten ze hun bezorgdheid over de risico's van de AI-ontwikkeling, zowel op korte termijn als meer fundementeel, bijvoorbeeld door technologische singulariteit.[2]