Skip to main content

Dus Israël heeft een AI-systeem uit zijn hightechhoed getoverd om 37.000 ‘mogelijke’ Hamas-strijders te identificeren en dan, als kers op de apocalyptische taart, ook nog eens van de aardbodem te vegen. Briljant. Waarom stoppen bij mogelijk terroristische types als je gewoon een algoritme kunt loslaten dat efficiënter opereert dan een doorgewinterde Tinder-gebruiker op een eenzame zaterdagavond? “Swipe left op Hamas”, denkt Benjamin Netanyahu waarschijnlijk terwijl hij z’n koffie slurpt en naar het aantal ‘likes’ op zijn laatste Instagram-post kijkt.

Maar wacht, er is meer: de AI kanniet alleen Hamas-geaffilieerden identificeren, maar ook hun favoriete kebabzaak lokaliseren. Ja, want iedereen weet, niets schreeuwt ‘internationale dreiging’ zoals een goeie portie shoarma na een lange dag van… nou ja, Hamas-dingen doen, zeker.

En laten we realistisch zijn – “mogelijk” is natuurlijk het sleutelwoord hier. In de wereld van moderne oorlogsvoering is “mogelijk” net zo rekbaar als de ethische code van een gezelschap advocaten die vanuit de hel opereren. “Je was ‘mogelijk’ betrokken bij Hamas? Nou, gefeliciteerd, je hebt net een ongevraagde trip naar de eeuwige jachtvelden gewonnen. En nee, je hoeft niet te packen, het wordt een enkele reis.”

Natuurlijk, humanitaire nachtmerries en collateral damage zijn zo 20e eeuw. Tegenwoordig hebben we kille, berekende algoritmen die met de emotionele diepgang van een broodrooster mensenlevens wegen. Maar hé, zolang die AI ons van schattige kattenfilmpjes voorziet tussen drone-aanvallen door, wie zijn wij dan om te klagen? Zoals het oude gezegde luidt: “een slimme bom maakt nog geen slim beleid.” Maar wat weten wij nou helemaal? Wij zijn maar simpele internettoetsenbordridders, veilig achter onze schermen, lachend om de absurditeit van een wereld die steeds meer op een slechte sciencefictionfilm lijkt. Proost, op de toekomst.

Bron: GOOGLE NEWS – Israël gebruikte AI-systeem ‘om 37.000 moge­lijke Hamas-strijders te identificeren én te doden’