Google heeft een belangrijke beperking verwijderd uit zijn AI-principes en heeft een verbod op kunstmatige intelligentietoepassingen voor wapens en surveillance gehaald.

De wijziging elimineert een beleid waardoor Google eerder werd verhinderd AI-technologieën te ontwikkelen die zijn ontworpen om schade te berokkenen of massale surveillance mogelijk maken die verder gaat dan internationaal geaccepteerde normen./winbuzzer.com/wp-content/uploads/2025/01/google-deepmind.jpg”>

De beleidsrevisie werd gedetailleerd in een Blogpost Wordt co-auteur van James Manyika, hoofd van Google, en Demis Hassabis, CEO van Google DeepMind.”Wij geloven dat democratieën moeten leiden in AI-ontwikkeling, geleid door kernwaarden zoals vrijheid, gelijkheid en respect voor de mensenrechten,”ze schreven. Technologische landschappen, waarin staat dat”bedrijven, overheden en organisaties die deze waarden delen, moeten samenwerken om AI te creëren die mensen beschermt, wereldwijde groei bevordert en de nationale veiligheid ondersteunt.”

De timing van de verschuiving Co-incasseren met het laatste inkomstenrapport van Alphabet , die de verwachtingen van de wall-straat verwacht, ondanks een 10 % stijging van advertentie-inkomsten. Tegelijkertijd heeft het bedrijf dit jaar een investering van $ 75 miljard in AI-projecten aangekondigd, die de eerdere marktramingen aanzienlijk overtreft. in nauwere concurrentie met bedrijven als Microsoft, Palantir en Amazon.

van AI Ethics to National Security: Google’s Evolving Stance

Voor jarenlange Google’s AI-richtlijnen expliciet uitgesloten van de ontwikkeling van”wapens of andere technologieën waarvan de belangrijkste doel of-implementatie is om mensen te veroorzaken of direct te vergemakkelijken.”

heeft het bedrijf toegezegd om geen”technologieën te volgen die informatie verzamelen of gebruiken voor informatie voor informatie voor Surveillance over het overtreden van internationaal geaccepteerde normen.”Deze verplichtingen, die voor het eerst werden opgericht in 2018, zijn nu verwijderd van de openbare AI-beleidspagina van het bedrijf.

Google heeft deze beperkingen oorspronkelijk aangenomen als reactie op wijdverbreide werknemersprotesten over zijn betrokkenheid bij Project Maven, een Pentagon Initiative Dat gebruikte AI voor drone-surveillance en targeting.

Duizenden werknemers ondertekenden een petitie die eiste van het bedrijf dat zijn deelname beëindigde, met verschillende ontslag in protest. De terugslag dwong Google om het contract te verlaten en zich later terug te trekken uit het bieden van het Jedi Cloud-contract van het Amerikaanse leger van $ 10 miljard. Beveiligingsinspanningen. Dit brengt het bedrijf in lijn met concurrenten zoals Microsoft en Palantir, die beide hun AI-aangedreven defensiemogelijkheden aanzienlijk hebben uitgebreid.

Techbedrijven die strijden om militaire AI-contracten

De AI-industrie ziet een toenemende overlap tussen commerciële ontwikkeling en militaire toepassingen. Microsoft heeft de modellen van Openai ingesloten in de cloudinfrastructuur van Azure Government, waardoor het Amerikaanse leger AI-tools kan integreren in veilige inlichtingenoperaties. Ondertussen heeft Palantir onlangs een contract van $ 480 miljoen met het Pentagon gesloten om AI-gebaseerde slagveldbeslissingsmogelijkheden uit te breiden.

Een andere belangrijke speler in deze ruimte is Schaal ai , die heeft gewerkt met het Pentagon’s Chief Digital and Artificial Intelligence Office (CDAO) Om grote taalmodellen te testen en te evalueren voor militaire toepassingen.

Deze trend is versneld te midden van groeiende bezorgdheid over de rol van AI in de wereldwijde veiligheid, met name als China Ramps UP-investeringen in AI-aangedreven verdedigingssystemen.

De beleidsverandering van Google suggereert dat het niet langer bereid is om aan de zijlijn te zitten, omdat AI een belangrijk onderdeel wordt van nationale defensiestrategieën. De vraag is nu hoe deze verschuiving van invloed zal zijn op de interne cultuur van het bedrijf, met name gezien de geschiedenis van werknemersweerstand tegen militaire AI-projecten.

interne weerstand en werknemersbacklash

Google’s geschiedenis met militaire AI-projecten is gekenmerkt door intense interne weerstand. Het meest bekende voorbeeld was de controverse over Project Maven, die leidde tot wijdverbreide werknemersprotesten en Google dwong zijn betrokkenheid te annuleren.

Soortgelijke spanningen deden echter meer recent op met Project Nimbus, een $ 1,2 miljard cloud en AI-contract met Amazon die diensten verleende aan de Israëlische regering en het leger.

Interne kritiek op project Nimbus resulteerde In een reeks demonstraties van medewerkers, met als hoogtepunt Google vuurt meer dan 50 werknemers die hadden deelgenomen in werkplekprotesten tegen het contract. Werknemers hadden betoogd dat het project de eerdere AI-principes van Google tegenspoorde, die expliciet bepaalde militaire en surveillancetoepassingen hebben uitgesloten. Sommige van haar onderzoekers hebben hun bezorgdheid geuit over de rol van AI in de nationale veiligheid, met name in autonome besluitvormingssystemen. Met deze nieuwste beleidsverandering blijft het onzeker of het personeelsbestand van Google opnieuw zal mobiliseren tegen de beslissing van het leiderschap.

Financiële en strategische motivaties achter de verandering

De timing Van de AI-beleidsrevisie van Google suggereert dat strategische en financiële overwegingen een belangrijke rol hebben gespeeld. Het laatste winstrapport van Alphabet daalde onder de verwachtingen van de analisten, ondanks een stijging van de AD-inkomsten met 10%. Naarmate de concurrentie in AI intensiveert, kan Google zich positioneren om nieuwe inkomstenstromen te beveiligen die verder gaan dan zijn kernadvertentiebedrijf. Microsoft heeft zijn rol in de sector versterkt door zijn partnerschap met Palantir, dat diepe banden heeft met nationale veiligheidsinstanties. Microsoft werkte ook samen met DARPA voor een AI-aangedreven cybersecurity-uitdaging gericht op het veiligstellen van kritieke infrastructuur.

Op dezelfde manier Anthropic heeft samengewerkt met het Amerikaanse ministerie van Energie Om de veiligheid van zijn Claude AI-modellen in nucleaire beveiligingsomgevingen te beoordelen. Met grote AI-bedrijven die deelnemen aan overheidspartnerschappen, suggereert de beslissing van Google om haar zelfopgelegde AI-beperkingen te verwijderen dat het in deze snelgroeiende sector concurrerend wil blijven.

AI-regulering en ethisch toezicht blijven onopgelost

Ondanks de beleidsverschuiving blijft regelgevende onzekerheid opdoemen over het gebruik van AI in militaire toepassingen. Hoewel regeringen wereldwijd AI-veiligheidsrichtlijnen hebben geïntroduceerd, zijn er geen duidelijke, afdwingbare wettelijke kaders die de rol van AI in de nationale veiligheid regelen. blijft grotendeels in handen van particuliere bedrijven. (Zie het initiatief van het Hiroshima-proces van 2023 G-7 Normen en technologie (NIST) AI Risicobeheerkader )

In zijn officiële aankondiging benadrukte Google dat het zal blijven afstemmen op”algemeen aanvaarde principes van internationaal recht en mensenrechten.”Afwezigheid van specifieke handhavingsmechanismen laat open vragen over hoe het bedrijf potentiële risico’s zal beoordelen en verminderen die verband houden met AI-toepassingen van defensie. groeien. Hoewel Google erop staat dat het AI op verantwoorde wijze zal inzetten, suggereert de beslissing om eerdere beperkingen te elimineren dat het bedrijf verschuift naar een meer flexibele interpretatie van AI-ethiek. naar ethiek en nationale veiligheid. Zodra een bedrijf dat zich van militaire AI-applicaties heeft afgenomen, wijst Google nu aan de bereidheid om deel te nemen aan Defensie-gerelateerd AI-werk. 

De reactie van de werknemers van Google en AI-onderzoeksafdelingen blijft echter onzeker. Met een geschiedenis van interne pushback tegen defensiecontracten, kan het bedrijf worden geconfronteerd met hernieuwde oppositie tegen zijn personeelsbestand. Tegelijkertijd wordt verwacht dat de regelgeving van de regelgeving over de rol van AI in militaire operaties zal toenemen, waardoor de particuliere bedrijven omgaan met defensie-en inlichtingendiensten.

Maar één ding is duidelijk: Google positioneert zichzelf niet langer als een AI-bedrijf dat categorisch nationale veiligheidstoepassingen vermijdt.

Categories: IT Info