De Amerikaanse Federal Trade Commission (FTC) is een onderzoek gestart naar OpenAI, het bedrijf achter de kunstmatige intelligentie (AI) software ChatGPT. Het onderzoek gaat in op de mogelijkheid dat de AI-chatbot negatieve gevolgen heeft gehad voor consumenten door gegevens te verzamelen en valse persoonlijke informatie te verspreiden.
Het onderzoek van de FTC richt zich voornamelijk op de vraag of OpenAI heeft deelgenomen aan misleidende of oneerlijke praktijken met betrekking tot privacy, gegevensbeveiliging of mogelijke schade voor de consument. Het onderzoek werd aanvankelijk gemeld door The Washington Post en later bevestigd door een insider.
Het onderzoek van de FTC markeert de eerste belangrijke Amerikaanse regelgevende uitdaging voor OpenAI, een toonaangevend AI-bedrijf. Het onderzoek geeft aan dat het toezicht door regelgevende instanties waarschijnlijk zal toenemen naarmate AI-technologieën meer ingang vinden bij individuen, bedrijven en overheden. De bezorgdheid over mogelijk misbruik van chatbots neemt toe nu de technologie zich snel ontwikkelt.
Lees ook: “Amerikaanse agentschappen op hun hoede: China-gelinkte cyberspionagecampagne ontdekt”.
De CEO van OpenAI, Sam Altman, heeft eerder aangegeven dat er behoefte is aan regulering binnen de groeiende AI-sector. In mei getuigde Altman voor het Congres om te pleiten voor AI-gerelateerde wetgeving. Hij heeft contact gehad met honderden wetgevers om een beleidsagenda voor de technologie te promoten, waarbij hij de nadruk legde op OpenAI’s toewijding aan veiligheid en naleving van wetten.
OpenAI heeft ook te maken gehad met internationale regeldruk. In maart verbood de Italiaanse autoriteit voor gegevensbescherming ChatGPT tijdelijk, omdat ze OpenAI beschuldigde van het onwettig verzamelen van persoonlijke gegevens van gebruikers en het ontbreken van een leeftijdscontrolesysteem om minderjarigen te beschermen tegen ongepaste inhoud. OpenAI kreeg een maand na het doorvoeren van de vereiste wijzigingen weer toegang tot het systeem.
De FTC gaat snel te werk op het gebied van AI en startte een onderzoek minder dan een jaar na de introductie van ChatGPT door OpenAI. FTC-voorzitter Lina Khan heeft gepleit voor vroegtijdige regulering van technologieën om grote publieke blunders van bedrijven te voorkomen, zoals het privacylek bij Meta in 2018.
Tijdens een hoorzitting van het House Judiciary Committee stelde Khan dat er een gebrek is aan controle op het type gegevens dat wordt ingevoerd in AI-systemen zoals ChatGPT, wat onbedoeld kan leiden tot de blootstelling van gevoelige informatie. Ze herhaalde dat nieuwe technologieën zoals AI niet zijn vrijgesteld van bestaande wet- en regelgeving.
Het onderzoek kan OpenAI dwingen om zijn methodologie voor het ontwikkelen van ChatGPT en de gegevensbronnen die worden gebruikt om zijn AI-systemen te bouwen, openbaar te maken.
De AI-technologie van OpenAI, een neuraal netwerk genaamd, leert door gegevens te analyseren, patronen te identificeren en deze inzichten toe te passen om taken uit te voeren. De systemen kunnen echter soms foutieve informatie herhalen of feiten verkeerd combineren, wat leidt tot verkeerde informatie.
In maart verzocht het Center for AI and Digital Policy, een belangengroep die zich richt op ethisch technologiegebruik, de FTC om OpenAI te verbieden commerciële versies van ChatGPT uit te brengen vanwege zorgen over vooroordelen, desinformatie en beveiliging.
Het onderzoek van de FTC naar OpenAI kan enkele maanden duren en het valt nog te bezien welke acties het agentschap zou kunnen ondernemen. FTC-onderzoeken zijn meestal vertrouwelijk en omvatten vaak interviews met topmanagers van bedrijven. Een voormalig medewerker stelt dat de technische expertise die nodig is om de antwoorden van OpenAI te evalueren een uitdaging kan vormen voor de FTC.
0 Comments