Google doet aan 'damage control' voor haar imago
Twee weken geleden schreef ik over hoe Google haar kunstmatige intelligentie doorverkoopt aan het Amerikaanse leger en de kritiek die ze daar van hun eigen personeel (en de rest van de wereld) op kregen. Het zal dus niet geheel toevallig zijn dat de baas van Google vorige week hun ethische principes voor het gebruik van kunstmatige intelligentie heeft gepubliceerd. Peter Eckersley van de Electronic Frontier Foundation (EFF) is gematigd enthousiast over de principes. Hij had graag gezien dat Google zich zou committeren aan de Necessary and Proportionate Principles als het gaat over de inzet van kunstmatige intelligentie voor surveillance en hij vindt dat Google niet volgend zou moeten zijn als het gaat over hoe kunstmatige intelligentie zich verhoudt tot mensenrechten (dat is immers nog helemaal niet zo helder) maar juist proactief moet uitleggen hoe en waarom hun kunstmatige intelligentie voldoet aan deze fundamentele rechten.
Zelf ben ik wat minder enthousiast: ik vind het bijvoorbeeld absurd dat Google zou moeten en kunnen bepalen wat wordt gezien als "socially beneficial". Ze schrijven:
As we consider potential development and uses of AI technologies, we will take into account a broad range of social and economic factors, and will proceed where we believe that the overall likely benefits substantially exceed the foreseeable risks and downsides.
Deze statement getuigd van een vreemd utilitair perspectief op de wereld en is voor mij niet de manier waarop je beweegt richting een rechtvaardige wereld: je kunt de downside van de één niet wegstrepen tegen de grote benefits van een ander. Ook valt het me op dat dit de principes van Google zijn en niet van Alphabet, het moederbedrijf van Google. Alphabet kan dus nog steeds doen wat ze willen.