De week van Haarlemmer-kunstmatige-intelligentie-olie, wikiHow en ‘plan continuation bias’
- 23 november 2019
Dit zijn de interessante, ontroerende, zorgwekkende en/of hilarische linkjes over internetvrijheid die ik deze week graag met je deel.
Hoe herken je Haarlemmer-kunstmatige-intelligentie-olie?
Wow, ik zou willen dat elke beleidsmaker in Nederland eens 15 minuten door dit praatje van Arvind Narayanan zou scrollen! Volgens hem is heel veel kunstmatige intelligentie die nu op de markt is Haarlemmerolie: het werkt niet en het kán ook niet werken.
Hij deelt kunstmatige intelligentie op in grofweg drie domeinen:
- Perception – Dit gaat om taken als gezichtsherkenning en medische diagnoses op basis van scans. Hier is kunstmatige intelligentie al beter dan mensen en blijft het ook nog eens verbeteren.
- Automating judgment – Dit gaat over simpele oordelen zoals het herkennen van spam of het beoordelen van essays. Hier kan kunstmatige intelligentie redelijk goed in worden, maar nooit perfect. Narayanan schrijft: “AI will never be perfect at these tasks because they involve judgment and reasonable people can disagree about the correct decision.”
- Prediction of social outcomes – Dit gaat over het voorspellen van bijvoorbeeld recidivisme van criminelen, de prestaties van een werknemer of het voorspellen van kinderen die risico lopen in hun thuissituatie. Narayanan is hier glashelder over: “These problems are hard because we can’t predict the future. That should be common sense. But we seem to have decided to suspend common sense when AI is involved.”
Het maakt niet uit hoeveel data je er tegenaan gooit, de kunstmatige intelligentie wordt niet beter in dat derde domein (kunstmatige intelligentie met de nadruk op ‘matig’ dus). Terwijl meer data er tegenaan gooien wel met risico's komt. Volgens Narayan hoef je dit soort vraagstukken helemaal niet op te lossen met kunstmatige intelligentie:
For predicting social outcomes, AI is not substantially better than manual scoring using just a few features.
De wondere wereld van wikiHow
Kaitlyn Tiffany schreef een artikel over wikiHow met deze openingsalinea:
While there’s no telling exactly how many people have learned to French-kiss from wikiHow, we know for sure that more than 22 million people have viewed the article that teaches that particular lesson.
En iets verderop:
wikiHow is a website no one thinks about until they need something. I’d forgotten—or maybe I’d never considered—that this green-and-gray running joke of a company is part of the shared language of the social web. It’s one of very few common resources that have been remixed mostly for fun and almost never for evil, and it may be the largest commercial platform in existence that hasn’t been accused of exploiting its users. It’s an explainer site that also, through the fact of its continued existence, explains how to run a website.
Het kan dus toch: een website bouwen die haar gebruikers niet verraad…
Deze links elke week in je mailbox?
Geef hier je e-mailadres op om deze lees-, luister en kijktips elk weekend in je inbox te ontvangen.
Amnesty: het verdienmodel van Google en Facebook is een gevaar voor onze mensenrechten
Amnesty publiceerde deze week een groot rapport over de impact van Google en Facebook op onze mensenrechten. Amnesty heeft zich wel eerder bezig gehouden met surveillance, maar dan bijna altijd in de context van de overheid. Dat ze nu hun krachtige internationale pijlen richten op surveillance als verdienmodel van de grote internetplatforms vind ik een grote stap vooruit. Ik heb nog geen tijd gehad om het lezen, maar kijk daar wel naar uit:
Wat ik al wel heb kunnen lezen is de uitleg over de spagaat waarin Amnesty zit: moeten ze nou wel of niet zelf gebruik maken van Facebook en Google? Ze leggen uit dat ze niet anders kunnen, en dat dat precies het probleem is (dit is vrij herkenbaar voor ons).
Onveiliger worden door extra veiligheidsmaatregelen
Via 99% Invisible luisterde ik naar deze superleerzame podcastaflevering van Tim Harford. Hij laat aan de hand van de Moonlight/La La Land clusterfuck bij de Oscars zien hoe extra veiligheidsmaatregelen er juist voor kunnen zorgen dat iets onveiliger wordt. Bij de Oscars ging het bijvoorbeeld mis omdat er twee identieke sets aan enveloppen met winnaars waren (je weet maar nooit), waardoor het kon gebeuren dat een identieke boodschap twee keer voorgelezen werd. We zijn volgens Harford het meest kwetsbaar als we dingen van elkaar afhankelijk maken (tightly coupled) en als we zaken complex maken. Volgens mij gebeurt dit bij IT-systemen echt verschrikkelijk veel. Daarom hou ik zelf ook van simpele systemen die loosely coupled zijn. Luister vooral ook naar Harford's andere afleveringen. Ik heb daar bijvoorbeeld geleerd dat ik last heb van plan continuation bias.
‘Phone buddies’
Om de één of andere reden vind ik kunst die iets doet met de manier waarop we in onze telefoons gezogen worden fascinerend. Andrew Rae laat met zijn phone buddies illustraties heel beeldend zien hoe onze aandacht volledig gevangen kan worden door dat apparaat dat we in onze handen houden.
De deal met Facebook
De Skeleton Claw web strip maakt in vier plaatjes duidelijk dat we inmiddels in een totaal surrealistische situatie zijn beland met Facebook:
Wij maken content zodat Facebook daar advertenties bij kan verkopen, we laten Facebook ons bespioneren zodat ze ons beter kunnen targeten met die advertenties, én als we willen dat al onze volgers onze content zien, dan moeten we daarvoor betalen. Klinkt bijna te goed om waar te zijn.