Izborni dogovor
Tehnološke korporacije na čelu s Microsoftom su odlučile u ovoj svjetskoj superizbornoj godini zaštiti nas od lažnih AI političkih dezinformacije. Taj izborni dogovor je potpisan u veljači, a kako se prije svega tiče europskih i američkih izbora danas o njemu govorimo.
Potpisnici ovog sporazuma potaknutog od Microsofta su: Adobe, Amazon, Anthropic, Arm, ElevenLabs, Gen, GitHub, Google, IBM, Inflection, Intuit, LG AI Research, Linkedin, McAfee, Microsoft, Meta, NetApp, Nota, OpenAI, Snapchat, Stabilitiy.ai, TikTok, Trend, Truemedia.org, Truepic, X.
Sada Vam navodimo tekst sporazuma, tekst obveza koje su dobrovoljno preuzele navedene korporacije na sebe.
Obveze
U potrazi za ovim ciljevima, potpisnici se obvezuju na sljedeće korake 2024. godine:
1) Razvoj i implementacija tehnologije za ublažavanje rizika povezanih s obmanjujućim izbornim AI sadržajem putem:
a) Podupiranja razvoja tehnoloških inovacija za ublažavanje rizika koji proizlaze iz lažnog AI izbornog sadržaja identificiranjem realističnih slika generiranih AI-om i/ili potvrđivanjem autentičnosti sadržaja i njegovog podrijetla, uz razumijevanje da sva takva rješenja imaju ograničenja. Ovaj rad može uključivati, ali nije ograničen na razvoj klasifikatora ili robusnih metoda provenijencije kao što su vodeni žigovi ili potpisani metapodaci (npr. standard koji je razvio C2PA ili SynthID vodeni žig).
b) Nastavak ulaganja u unapređenje novih tehnoloških inovacija porijekla za audio, video i slike.
c) Raditi na prilaganju strojno čitljivih informacija, prema potrebi, realističnom audio, video i slikovnom sadržaju generiranom umjetnom inteligencijom koji generiraju korisnici s modelima u opsegu ovog sporazuma.
2)Procjena modela u opsegu ovog sporazuma kako bismo razumjeli rizike koje mogu predstavljati u vezi s lažnim izbornim sadržajem umjetne inteligencije kako bismo mogli bolje razumjeti vektore za zlouporabu u cilju poboljšanja naših kontrola protiv te zlouporabe.
3) Nastojati otkriti distribucije lažnog AI izbornog sadržaja koji se nalazi na našim internetskim distribucijskim platformama gdje je takav sadržaj namijenjen javnoj distribuciji i može se pogrešno smatrati stvarnim. To može uključivati korištenje tehnologije otkrivanja, unos identifikatora temeljenih na otvorenim standardima koje su izradile tvrtke za proizvodnju umjetne inteligencije ili korištenje usluga moderiranja sadržaja, omogućavanje kreatorima da otkriju svoju upotrebu umjetne inteligencije kada učitavaju sadržaj i/ili pružanje putova za javnost da prijave sumnju na prijevaru Izborni sadržaj AI.
4) U nastojanju da se na odgovarajući način pozabavimo lažnim AI izbornim sadržajem koji otkrivamo da se nalazi na našim internetskim distribucijskim platformama i namijenjen je javnoj distribuciji, na način koji je u skladu s načelima slobode izražavanja i sigurnosti. To može uključivati — ali nije ograničeno na — usvajanje i objavljivanje pravila i rad na pružanju kontekstualnih informacija o realističnom audio, video ili slikovnom sadržaju generiranom umjetnom inteligencijom gdje ga možemo otkriti tako da bude jasno da je generiran umjetnom inteligencijom ili manipuliran. U razmatranju mjera, operateri usluga online platforme obratit će pozornost na kontekst, a posebno na očuvanje obrazovnog, dokumentarnog, umjetničkog, satiričnog i političkog izražavanja.
5) Poticanje međuindustrijske otpornosti na obmanjujući AI izborni sadržaj dijeljenjem najboljih praksi i istraživanjem putova za dijeljenje najboljih alata u klasi i/ili tehničkih signala o varljivom AI izbornom sadržaju kao odgovor na incidente.
6) Pružanje transparentnosti javnosti u vezi s načinom na koji se bavimo obmanjujućim izbornim sadržajem AI—na primjer, objavljivanjem pravila koja objašnjavaju kako ćemo se baviti takvim sadržajem, pružanjem ažuriranja o istraživanju porijekla ili informiranjem javnosti o drugim radnjama poduzetim u skladu s ovim obvezama.
7) Nastaviti surađivati s raznolikim skupom globalnih organizacija civilnog društva, akademika i drugih relevantnih stručnjaka za predmet putem uspostavljenih kanala ili događaja, kako bi informirali tvrtke o razumijevanju globalnog krajolika rizika kao dijela neovisnog razvoja njihovih tehnologija, alate i inicijative opisane u ovom sporazumu.
8) Podržavanje napora za poticanje javne svijesti i otpornosti cijelog društva u vezi s obmanjujućim izbornim sadržajem AI – na primjer putem obrazovnih kampanja o rizicima stvorenim za javnost i načinima na koje građani mogu naučiti o tim rizicima kako bi se bolje zaštitili od manipulacije ili prevare ovim sadržajem; putem alata, sučelja ili postupaka koji korisnicima mogu pružiti koristan kontekst o sadržaju koji vide na mreži; razvojem i izdavanjem alata otvorenog koda za podršku drugima koji pokušavaju ublažiti te rizike; ili na drugi način podupirući rad organizacija i zajednica uključenih u odgovor na te rizike.
Sve razumne osobe će se složiti da je potrebno postaviti u izborno vrijeme nekakvu zaštitu od lažnih vijesti, od lažnih snimaka, ali pitanje je tko odlučuje što je lažno, a što nije. To predstavlja osnovni problem jer nitko ne vjeruje da će pošteno odlučivati oni koji su ranije vršili političku cenzuru.
I sto tako nitko ne vjeruje da će organizacije koje kontroliraju Bill Gates i Jeff Bezos to pošteno ocjenjivati. Samo Gates financira 32 225 različitih organizacija i medija na čemu bi svaka priča o izbornom dogovoru tehnoloških korporacija trebala stati. Oni to ne rade da bi zaštitili našu demokraciju koja u EU niti ne postoji nego da bi prave osobe ostvarile izbornu pobjedu.
Hi i think that i saw you visited my web site thus i came to Return the favore I am attempting to find things to improve my web siteI suppose its ok to use some of your ideas