Search
Probleemgericht werken aan High Impact Crime
[660] 5 februari 2024: Facial recognition technology: Current capabilities, future prospects, and governance

Inleiding en context

Goede morgen allemaal op deze maandag 5 februari 2024. Een brandnieuwe werkweek ligt weer voor ons. Ik zou zeggen maak er allemaal weer wat moois en het beste van. Ik begin met een (toepasselijk) liedje bij de ´kennisparel´ van vandaag: https://www.youtube.com/watch?v=6vWTtx_PxPo The small faces, fraai hoor. De bijgesloten ´kennisparel´ van vandaag gaat ook over gezichten, in dit geval om bestaande technologie om gezichten te herkennen: ´facial recognition´, in het Nederlands, gezichtsherkenning. De befaamde National Academies of Sciences heeft hier onlangs een prima overzicht van de beschikbare kennis over uitgebracht.

Gezichtsherkenningstechnologie is een krachtig en steeds vaker gebruikt hulpmiddel en is nuttig voor een groot aantal toepassingen voor identiteitsverificatie en identificatie. Het biedt mogelijkheden om te controleren of iemand is wie hij of zij zegt te zijn en om een persoon in een afbeelding te identificeren. Systemen maken gebruik van kunstmatige intelligentiemodellen om gezichtskenmerken te extraheren en een biometrische sjabloon uit een afbeelding te maken. De kenmerken in het sjabloon worden vergeleken met de kenmerken van een andere afbeelding of een reeks afbeeldingen om een gelijkenisscore te verkrijgen. De nauwkeurigheid en snelheid van deze systemen zijn de afgelopen tien jaar snel vooruitgegaan met de invoering van ´deep neural network-based machine learning´, aldus het rapport.

Gezichtsherkenningstechnologie genereert nieuwe en complexe juridische uitdagingen en roept een verscheidenheid aan afzonderlijke, onbeantwoorde juridische vragen op. Het roept ook ingewikkelde sociale vragen op over privacy en publieke en private surveillance vanwege de zeer persoonlijke implicaties van de technologie. Het is daarom van cruciaal belang dat overheden deze vragen tot een prioriteit maken om beleid en regelgeving inzake de ontwikkeling en het gebruik van gezichtsherkenningstechnologie te ontwikkelen. De besluitvorming en regelgeving over deze belangrijke kwesties is van groot publiek belang en kan niet volledig aan de particuliere sector en de markt worden overgelaten.

Gezichtsherkenningstechnologie is steeds meer ingebed in het dagelijks leven met een breed spectrum aan toepassingen. Sommige van deze toepassingen zijn onschadelijk, zoals mensen de mogelijkheid bieden hun smartphones te ontgrendelen. Maar als de technologie breed en zonder waarborgen wordt toegepast, kunnen repressieve regimes gedetailleerde registraties maken van de bewegingen en activiteiten van mensen en kunnen bepaalde individuen worden uitgesloten van deelname aan het openbare leven. De situatie in China is hier een voorbeeld van. Veel vormen van gebruik en potentieel gebruik bevinden zich daar ergens tussenin, waardoor een groot grijs gebied ontstaat waarin individuele beoordelingen van risico’s, voordelen, afwegingen en waarden kunnen variëren. Dat gegeven is van invloed is op de manier waarop deze moeten worden gereguleerd en of ze überhaupt moeten worden toegestaan. Het rapport erkent de waarde van gezichtsherkenningstechnologie en pleit niet voor een algeheel verbod, maar stelt dat een aantal vormen van gebruik voldoende zorgen kunnen baren dat ze verboden zouden moeten worden.

Bron

National Academies of Sciences, Engineering, and Medicine (January 2024). Facial recognition technology: Current capabilities, future prospects, and governance. Washington, DC: The National Academies Press, 121 pp. https://nap.nationalacademies.org/catalog/27397/facial-recognition-technology-current-capabilities-future-prospects-and-governance

Samenvatting

Facial recognition technology is increasingly used for identity verification and identification, from aiding law enforcement investigations to identifying potential security threats at large venues. However, advances in this technology have outpaced laws and regulations, raising significant concerns related to equity, privacy, and civil liberties.

This report explores the current capabilities, future possibilities, and necessary governance for facial recognition technology. Facial Recognition Technology discusses legal, societal, and ethical implications of the technology, and recommends ways that federal agencies and others developing and deploying the technology can mitigate potential harms and enact more comprehensive safeguards.

The report says there are two principal categories of concern in facial recognition, though they can overlap. One is potential harms from problematic use or misuse of the technology, which become more salient as the technology becomes more accurate and capable. The second is potential harms from errors or limitations in the technology itself, such as when systems have different false positive or false negative rates for different demographic groups. The committee found that facial recognition technology intersects with equity and race in several key ways. Many systems deployed in the U.S. are trained using datasets that are imbalanced and disproportionately rely on data from White individuals. As a result, these systems have higher false positive match rates for racial minorities. They also provide law enforcement with a powerful new surveillance tool that can serve to reinforce patterns of or perceived need for elevated scrutiny, especially in marginalized communities, which may be compounded through law enforcement’s use of reference galleries based on mug shots. These issues create additional burdens for some groups of individuals, including African Americans and others that have been historically marginalized in the U.S. 

Some concerns about facial recognition technology can be addressed by improving the technology itself, while others require changes to procedures or training, restrictions on when or how facial recognition technology is used, and regulation of the conduct that facial recognition technology enables.  There are multiple ways for the government to address issues raised by facial recognition technology. The report recommends that the Executive Office of the President consider issuing an executive order on the development of guidelines for the appropriate use of facial recognition technology by federal departments and agencies. Any executive order should also address both equity concerns and the protection of privacy and civil liberties. New federal legislation should also be considered to address equity, privacy, and civil liberty concerns; limit potential harms to individual rights by private and public actors; and protect against misuse of facial recognition technology. Specifically, the report says that legislators should consider: 

  • Placing limitations on the storing of face images and templates. 
  • Requiring training and certification of system operators and decision-makers, particularly for applications where errors can significantly harm subjects, such as in law enforcement. 
  • Addressing specific use concerns, such as use of facial recognition technology for mass or individual surveillance, harassment or blackmail, access to housing, and other public and private uses that could intentionally or otherwise chill the exercise of political and civil liberties. 
  • Passing a federal privacy law specific to facial recognition technology, or broader privacy legislation that deals with commercial practices compromising privacy. 

The federal government should work to establish an array of industrywide standards and methods with international and industry partners. These should include process standards in areas such as data security and standards defining minimum acceptable image quality, false positive and negative rates, and accuracy variation across phenotypes for given applications. The report recommends the National Institute of Standards and Technology as a hub for government activities. The report also recommends other avenues that the federal government should pursue to guide responsible use and develop of facial recognition technology, including:

  • The U.S. departments of Justice and Homeland Security should establish a working group to develop and periodically review standards for reasonable and equitable use by federal, state, and local law enforcement agencies. The group should work on issues relating to image quality standards; guidance on the use of facial recognition technology for real-time surveillance of public areas; transparency and community oversight; and mechanisms for redress for individuals harmed by system misuse or abuse. 
  • Grants and other support for state and local law enforcement should require that recipients adhere to certain technical, procedural, and disclosure requirements related to the use of facial recognition technology. 
  • NIST should sustain a vigorous program of facial recognition technology testing and evaluation to continue driving an increase in accuracy and a reduction in demographic differentials. 
  • The government should also establish a program to develop and refine a risk management framework to help organizations identify and mitigate the risks of proposed facial recognition technology applications. 

Afsluitend

Gezichtsherkenning biedt volgens bijgesloten ´kennisparel´ uitdagingen en kansen en gaat in op de problemen rond bredere implementatie en ethische aspecten van deze technologie. Deze herkenningssystemen zijn bijzonder complex en moeten daarom als zodanig worden beoordeeld. Gezichtsherkenning in de publieke ruimte brengt onvermijdelijke onzekerheden en risico´s met zich mee op foute toepassingen. Ondanks aanzienlijke inspanningen om de ethische aspecten hiervan te beoordelen blijven er echter onopgeloste vragen over de effectiviteit en het beheer van systemen voor gezichtsherkenning, evenals de geschiktheid en maatschappelijke impact van het gebruik ervan.

De belangrijkste ethische kwesties die door de biometrische herkenning van menselijk gedrag worden veroorzaakt vloeien voort uit het potentieel indringende karakter ervan. Voer voor wetgevers, onderzoekers, beleidsmakers en natuurlijk privacy waakhonden. Werk aan de winkel dus.

prohic_linksonder