Search
Probleemgericht werken aan High Impact Crime
[592] 7 augustus 2023: AI-tocracy

Inleiding en context

Goede morgen beste mensen, het is vandaag maandag 7 augustus 2023. Een toepasselijk ´rustig liedje´ om mee te beginnen: https://www.youtube.com/watch?v=JeTw_p_WglY Vandaag dus een ´kennisparel´ over kunstmatige intelligentie (KI) en de mate waarin KI de sociale en politieke controle van zogenaamde autocratieën kan versterken. Een autocratie is een regeringsvorm waarbij ongelimiteerde macht wordt uitgeoefend door één persoon. Als voorspellingstechnologie kan KI bijzonder effectief zijn bij het versterken van de sociale en politieke controle van autocraten. Het verzamelen en verwerken van gegevens door autocratieën voor politieke controledoeleinden kan rechtstreeks KI-innovatie stimuleren.

De auteurs van bijgesloten ´kennisparel´ laten in de context van gezichtsherkenning-KI in China zien dat grensverleggende KI-innovatie en een autocratisch regime elkaar inderdaad kunnen versterken. Naast het economische belang en de geopolitieke belangen van deze samenhang is het behouden van politieke controle een hoofddoel van de regerende Chinese Communistische Partij. China is één van ’s werelds toonaangevende producenten van commerciële KI-innovatie en is gezichtsherkenning één van de belangrijkste gebieden van AI-technologie.

Een wederzijds versterkende relatie tussen KI en autocratie in andere contexten wordt steeds meer relevant. Met name Rusland heeft al gezichtsherkenning-KI ingezet voor politieke controle en behoort naast China tot ’s werelds grootste producenten van grensverleggende gezichtsherkenning-KI-technologie. Bovendien kunnen autocraten in andere landen Chinese KI-technologie importeren voor politieke controle. Anekdotisch bewijs suggereert inderdaad dat de KI-technologie voor toezicht in China al is geëxporteerd naar andere autocratieën. De implicaties van China’s KI-innovatie voor het wereldwijde politieke en economische landschap zijn nader en grondig onderzoek meer dan waard. Bijgesloten ´kennisparel´ geeft daartoe een prima aanzet.

Bron

Beraja, Martin, Andrew Kao, David Y Yang & Noam Yuchtman (August 2023). AI-tocracy. The Quarterly Journal of Economics, Vol. 138, No. 3, August 2023, PP. 1349–1402. https://academic.oup.com/qje/article/138/3/1349/7076890?login=false

Samenvatting

Recent scholarship has suggested that artificial intelligence (AI) technology and autocratic regimes may be mutually reinforcing. We test for a mutually reinforcing relationship in the context of facial-recognition AI in China. To do so, we gather comprehensive data on AI firms and government procurement contracts, as well as on social unrest across China since the early 2010s. We first show that autocrats benefit from AI: local unrest leads to greater government procurement of facial-recognition AI as a new technology of political control, and increased AI procurement indeed suppresses subsequent unrest.

We show that AI innovation benefits from autocrats’ suppression of unrest: the contracted AI firms innovate more both for the government and commercial markets and are more likely to export their products; noncontracted AI firms do not experience detectable negative spillovers. Taken together, these results suggest the possibility of sustained AI innovation under the Chinese regime: AI innovation entrenches the regime, and the regime’s investment in AI for political control stimulates further frontier innovation.

We document a mutually reinforcing relationship between facial recognition AI innovation and China’s autocratic regime. This relationship has direct implications for China’s economic and political trajectories. First, China’s autocratic politics may not constrain its ability to continue to push out the technological frontier in AI; rather, innovation in AI may be stimulated precisely because of China’s autocratic politics. Second, continued frontier innovation and economic development in China may not be associated with more inclusive political institutions; rather, such innovation may further entrench the autocratic regime.

It is important to consider the extent to which our results generalize. While many technologies would not exhibit forces that generate mutually reinforcing relationships between autocracy and frontier innovation, the key forces that we highlight could shed light on prominent historical episodes of frontier innovation in, for example, the Soviet Union and imperial Germany. More generally, the evidence speaks to how state-sponsored innovation is supported in democracies, including innovation supported by DARPA in the United States, the high-tech sector supported by the military in Israel, and nuclear engineering programs led by the French state.

Afsluitend

De discussie over de toepassingsmogelijkheden, de kansen en bedreigingen van KI wordt volop gevoerd. Er zijn veel huidige en voorzienbare ontwikkelingen rond deze toepassingen die ernstige gevolgen kunnen hebben voor individuele grondrechten en voor de rechtsstaat. Beslissingen worden meer en meer gebaseerd op algoritmes die met KI zijn gemaakt. Dat brengt grote risico’s met zich mee, als burgers geconfronteerd worden met beslissingen waar men zich niet tegen kan verweren mede omdat niet helder is hoe die tot stand komen. Tegelijk weten we dat statistische gegevens vaak beter in staat zijn risico’s te beoordelen dan op ervaring gegronde oordelen.

KI heeft talloze toepassingen die al in de samenleving zijn geïntroduceerd: biometrische (inclusief gezichts-) herkenning, objectherkenning, risico- en succesvoorspelling, algoritmisch besluitvorming of ondersteuning, automatische vertaling, aanbevelingssystemen, enzovoort. Deze AI-toepassingen hebben hun weg gevonden naar vele sectoren in de maatschappij zoals rechtshandhaving, justitie, mens en middelenbeheer, financiële diensten, transport, gezondheidszorg en openbare diensten. Deze toepassingen hebben bijzondere impact op mensenrechten, de democratie en de rechtsstaat in het algemeen.

Het feit dat KI bestaande vooroordelen kan bevestigen of versterken, is vooral relevant bij gebruik binnen de rechtshandhaving en criminaliteitsbestrijding. In situaties waar fysieke vrijheid of persoonlijke veiligheid op het spel staan, zoals bij predictive policing, en recidive risico bepaling en veroordeling is het zaak om hier zeer kritisch op te zijn. Wanneer een KI-systeem bijvoorbeeld wordt gebruikt voor recidivevoorspelling of veroordeling kan dat vertrekkende gevolgen hebben voor de betrokken individuen. Het kan fungeren als een black box waardoor het onmogelijk is voor juridische professionals, zoals rechters, advocaten en officieren van justitie om de redenering achter de uitkomsten van het systeem te begrijpen. Ten slotte verwijs ik de geïnteresseerde lezers naar deze eerder verzonden ´kennisparels´ over KI: 86;151;253;314;546; en 572, allemaal gratis te downloaden vanaf: https://prohic.nl/de-parels-van-jaap-de-waard/

prohic_linksonder