Google heft verbod op AI in wapens en bewaking op: een verontrustende toekomst voor geavanceerde technologie
Google heeft het al lang bestaande verbod op het gebruik van kunstmatige intelligentie in wapens en bewakingssystemen opgeheven. Dit is een belangrijke verandering in de ethische houding van het bedrijf ten opzichte van AI-ontwikkeling. Volgens voormalige werknemers en experts uit de sector kan dit de manier waarop Silicon Valley omgaat met AI-veiligheid veranderen.
Deze verandering, die deze week in stilte werd doorgevoerd, elimineert belangrijke onderdelen van De AI-principes van Google die het bedrijf expliciet verbood om AI te ontwikkelen voor wapens of bewaking. Dit waren de principes die Het werd opgericht in 2018.en dient als industriestandaard voor verantwoorde AI-ontwikkeling.
Tracy Pizzo-Fry, die vijf jaar lang de native AI-principes van Google heeft geïmplementeerd als senior director van outbound product management, engagement en verantwoordelijke AI bij Google Cloud, schreef in een bericht op Blauwe lucht"Het laatste bastion is gevallen. Google is echt de enige die zo duidelijk is geweest over zijn toezeggingen over wat het gaat bouwen."
De herziene principes schrappen vier specifieke verboden: technologieën die waarschijnlijk schade aan de bevolking zullen toebrengen; en wapentoepassingen; en monitoringsystemen; en technologieën die het internationaal recht en de mensenrechten schenden. In plaats daarvan zegt ze: Google Nu zal het werken aan het ‘verzachten van onbedoelde of schadelijke gevolgen’ en zal het in overeenstemming zijn met ‘de algemeen aanvaarde beginselen van het internationaal recht en de mensenrechten’.

Google versoepelt ethische AI-beperkingen: wat betekent dit voor bewakingstechnologieën en militaire toepassingen?
Deze verschuiving vindt plaats op een zeer gevoelig moment, aangezien de mogelijkheden van AI zich snel ontwikkelen en er steeds meer discussies ontstaan over geschikte controlemechanismen voor deze technologie. De timing roept vragen op over de motieven van Google, hoewel het bedrijf volhoudt dat deze veranderingen al geruime tijd in ontwikkeling zijn.
"We bevinden ons in een situatie waarin er veel wantrouwen heerst tegenover grote technologiebedrijven, en elke stap die controle lijkt weg te nemen, creëert meer wantrouwen", aldus Bezo-Fry in een interview met VentureBeat. Ze benadrukte dat duidelijke ethische grenzen essentieel waren voor het bouwen van betrouwbare AI-systemen tijdens haar tijd bij Google.
De oorspronkelijke principes ontstonden in 2018 te midden van protesten van werknemers over Project Maven, een contract met het Pentagon dat het gebruik van kunstmatige intelligentie omvat om dronebeelden te analyseren. Hoewel Google uiteindelijk weigerde het contract te verlengen, kunnen de nieuwe wijzigingen erop wijzen dat Google openstaat voor soortgelijke militaire partnerschappen.
Het amendement behoudt enkele elementen van het vorige ethische kader. Voor GoogleMaar het gaat van het verbieden van specifieke apps naar het benadrukken van risicobeheer. Deze aanpak is meer in lijn met industriële normen zoals: NIST AI-raamwerk voor risicobeheer, hoewel critici zeggen dat de beperkingen voor mogelijk schadelijke apps minder streng zijn.
"Ethische overwegingen zijn net zo belangrijk als het creëren van goede AI, zelfs als de nauwkeurigheid niet hetzelfde is", merkte Bezo Fry op, benadrukkend hoe ethische overwegingen de effectiviteit en toegankelijkheid van AI-producten verbeteren.
Van Project Maven tot beleidstransformatie: Google's hervormingspad voor AI-ethiek
Volgens waarnemers in de sector kan deze beleidswijziging van invloed zijn op de manier waarop andere technologiebedrijven omgaan met AI-ethiek. De oorspronkelijke principes van Google vormen een precedent voor zelfregulering door bedrijven op het gebied van AI-ontwikkeling. Veel bedrijven kijken naar Google voor begeleiding bij de verantwoorde implementatie van AI.
Het amendement weerspiegelt de bredere spanningen in de techsector tussen snelle innovatie en ethische beperkingen. Naarmate de concurrentie in de ontwikkeling van AI toeneemt, staan bedrijven onder druk om een evenwicht te vinden tussen verantwoorde ontwikkeling en de vraag in de markt.
"Ik maak me zorgen over hoe snel dingen zich in de wereld zullen verspreiden, en of Plus en Plus van de beperkingen zullen worden gehaald", aldus Pitso Frei, die zijn bezorgdheid uitsprak over de concurrentiedruk om snel AI-producten te lanceren zonder de mogelijke gevolgen adequaat in te schatten.
Het ethische dilemma van de Big Tech: zal Google's verandering in AI-beleid een nieuwe standaard voor de industrie creëren?
Het onderzoek roept ook vragen op over de interne besluitvormingsprocessen van Google en hoe werknemers ethische overwegingen kunnen aankaarten zonder expliciete verboden. Tijdens haar periode bij Google ontwikkelde Bezo-Fry beoordelingsprocessen waarin verschillende perspectieven werden samengebracht om de potentiële impact van AI-toepassingen te beoordelen.
Google blijft zich inzetten voor verantwoorde AI-ontwikkeling, maar het opheffen van specifieke verboden vormt een significante afwijking van de eerdere leidende rol als het gaat om het stellen van duidelijke ethische grenzen voor AI-toepassingen. Naarmate AI zich verder ontwikkelt, wordt er nauwlettend in de gaten gehouden welke impact deze verschuiving heeft op de bredere ontwikkeling en regelgeving van AI.
Reacties zijn gesloten.