Rise av Deepfakes -teknologi. Hvordan påvirker det samfunnet?

Den økende effekten av AI har endret livene våre både positivt og negativt. Selv om vi kan spare tid ved å outsourcere permisjonen og andre e -postmeldinger via ChatGPT, er DeepFake mer en uønsket konsekvens av AI enn en nyttig. Jeg vil ikke klandre AI for dette, ettersom hver nye iterasjon av det teknologiske arsenalet er et tokantet sverd. Med mindre du leverUnder en stein må du ha hørt om Deepfakes og hvor pent deligner personen hvis dypfake blir opprettet.

Hvis du går på nettet, cruise ned Instagram- eller Facebook-feeden din, og se noen ikke-så-berømte skapere som spiller inn profesjonelle videoer, kan du se på en dyp falsk video. Men hvordan påvirker dype forfalskninger samfunnet vårt, og hva kan vi gjøre for å motvirke dem? Jeg vil diskutere alt her.

Hva er Deepfakes? Hvordan skapes de?

Deepfakes er et hakk over overlagrede bilder, der ansiktet til en person brukes i en forhåndsinnspilt video eller bilde av en bestemt grunn. Noen mindre justeringer er nok til å få den endelige kunsten til å se original ut på et bilde med et ansikt som brukes i et eksisterende bilde.

I dypfake -videoer,Ansiktet til en annen person som brukes i noen eksisterende videoer vil ligne ekte menneskelige følelser og være i nærheten av eksakte muskelbevegelser. Alle disse får opptakene til å se utpersonen var til stede førlinsen.

Nå vet du hvor komplisert det kan være, og derfor kommer AI inn. Deepfake -videoer opprettes ved å trene AI -algoritmer med store datamodeller og maskinlæringsalgoritmer som tar sikte på å få videoene til å se mer autentiske ut. I dag tilbyr mange nettsteder funksjonaliteten for å lage dype falske videoer, noen ganger gratis, mens andre blir betalt.

Noen fordeler med dypfakes

I motsetning til den populære troen på at dype forfalskninger bryter samfunn, her er hvor dype forfalskninger kan være nyttige for samfunnet, bedrifter og filmskaping.

1. Underholdningsformål

Se for deg at du vil lage en bevissthetsvideo, men ikke har tilstrekkelig utstyr til å registrere den i det virkelige liv. Hvis manuset er klart, kan du bruke ansiktet ditt på en lagervideo og lage en dyp falske av deg selv som leser manuset, og du er klar til å gå.

Det samme gjelder filmskaping. En dyp falsk video kan opprettes og sømløst integreres i det endelige snittet hvis en skuespiller ikke er til stede for en bestemt scene. Tilsvarende, hvis en bestemt karakter har en dobbel rolle, kan en annen person leies til å kaste den andre rollen, og senere kan ansiktet til den første skuespilleren brukes til å skape en dyp falsk.

Mens disse erMulige, de etiske konsekvensene må vurderes, og samtykke må innhentesfra de involverte partene.

Akkurat som å lage innhold til underholdningsformål er det mulig å spre sosial bevissthet om forskjellige emner. Å bruke dype falske videoer til slike formål ville være en flott anvendelse av AI og dyp falskeVideoer.

3. Søknader innen utdanning

Det er umuligFor å reise tilbake i tid ved å bruke en tidsmaskin og få studentene til å møte Alexander, Chhatrapati Shivaji,eller andre virkelige karakterer. Takket være Deepfake -videoene kan de historiske karakterene bringes til det virkelige liv, og samtalene deres kan vises til studenter, noe som vil hjelpe dem å forstå fagene enda bedre. Foruten historien, kan dette også brukes på andre fag og gjøre konseptene mer tilgjengeligefor studentene.

Negative effekter av dypfakes

Det er ingen tvil om at Deepfakes kan brukes til sosialt beste. Vel, ingen teknologi er noen gang innovert for regressive formål. Imidlertid er navnet Deepfake negativt, ettersom ordet falske brukes. Du kan ikke forestille deg noe falskt å gjøre det bra for menneskeheten.Kan du? Men hvor nøyaktig Deepfakes kan påvirke samfunnet negativt? La oss finne ut av det.

1. Spre falske nyheter og feilinformasjon

Tenk deg at du har et rykte i din lokalitet. Men ansiktet ditt brukes i en kampanje som går i strid med samfunnet, i verste fall,eller noe kontroversielt. Ansiktet ditt kan også brukes i en politisk kampanje mot din tro. Dette vil påvirke omdømmet ditt, ikke bare i samfunnet dittMen blant dem som følger deg for spesifikk tro.

Tenk deg en dypfake av en offentlig skikkelse som er opprettet og spredt på sosiale medier. Dette kan virke som en upopulær mening, men kontroversielle nyheter sprer seg som en ildbål på sosiale medier, skaper negative meninger og eroderer figurens tillit blant publikum. Omdømmeskaden er ikke irreversible, men det kan ta dager, måneder eller år å gjenoppbygge den tapte tilliten.

2. Skader på omdømme

Spre falske nyheter der en person er involvert, somnevnt ovenfor,Forårsaker omdømme skade på ikke bare noen kjendis eller offentlig person. FortsattPesten kan føres til enkeltpersoner som deg og meg. En falsk video av en person som begår en forbrytelse eller en seksuelt krenkende video, kan skape irreversible omdømme. Det kan også tiltrekke straffekonsekvenser med mindre offeret ikke er bevist skyldig,ettersom videoer anses som førstehånds bevis i retten.

I motsetning til en kjendis eller en offentlig skikkelse, en individuAl kan synes det er utfordrendeå navigere i de få måtene å snu skaden som er forårsaket på omdømmet.

3. Personvernproblemer

Det krever bare ett bilde for å lage en dypfakevideo da AI-algoritmene er trent med mange virkelige eksempler for å levere nær perfekt video fra det ene bildet. Vi trenger ofte å sende inn fotografiene våre for flere formål,Og vi har ingen kontroll over hvordan den andre parten behandler bildene våre. Det som er mer plagsomme er at vi ikke kan gjøre mye for å forhindre slike uhell, ettersom deepfake-genererende plattformer ikke har noen måte å be om samtykke fra personen hvis video blir opprettet per nå.

Så,Ingen tvil om at de negative virkningene av Deepfakes langt oppveier de positive effektene de kan ha på samfunnet vårt.Men emnet er ikke så dystert som du kanskje tror. Det er måter å dempe risikoen på, og jeg vil diskutere noen måter her.

Måter å dempe de negative virkningene av dypfakes

La oss finne noen måter å redusere risikoen forbundet med Deepfakes.

1. Sentralisert kontroll over distribusjonen av verktøy

Å lage en dypfake-video krever spesialiserte verktøy som krever riktig trening med eksempler i det virkelige liv, som jeg nevnte flere ganger. Derfor er det ikke et barns lek å utvikle verktøy for dypfake -generasjon. De enkelte selskapene må føre oversikt over alle brukerne som bruker tjenestene, og mens DeepFake -videoene opprettes, kan noen hemmelige koder være innebygd i videoene for å identifisere skaperen i tilfelle noe galt skjer unikt, eller det er klager. Stol på meg, dette er ikke så vanskelig som du kanskje tror.

2. Bruk av spesialisert programvare for å slå DeepFakes

Akkurat som jern kan kutte jern, kan bare AI slå AI. Programvareløsninger som Deepware og DeepBrain AI er noen tilfeller av AI -hæren som kjemper for å holde Deepfakes i sjakk. Det er ikke bare individuelle utviklere som prøver å bekjempe DeepFakes; Tekniske giganter som Microsoft utvikler også verktøy for å oppdage Deepfake -videoer og holde internett rent.

Deepfake -videoer kan også oppdages med menneskelige øyne hvis de observeres nøye. Tross alt er de skapt av AI, og deepfakedetektorene prøver også å finne avvik i dem for å avgjøre om videoene er falske. Med tiden vil AI bli smartere og ligne de eksakte ansiktsuttrykkene til mennesker. Så AI-verktøyene bør også forbedres for å vinne katt-og-mus-spillet mellom skapere og detektorer.

Som enhver annen innovasjon, er Deepfake et dobbeltkantet sverd. Brukere må bruke det ansvarlig og forhindre skade på andre. Politikere og offentlige etater bør også ta proaktive skritt og håndverkspolitikk for å forhindre misbruk av dypfaketeknologi og erklære det som en avskyelig nettkriminalitet.

Videre er domstoler og lignende institusjonerLD sjekk videoens ekthet for å forhindre omdømmeskader og sikre at den ikke er detforfalskning. På den måten vil saken ikke bli innlevert i utgangspunktet, og personen bak den dype falske kan straffes.

Så det er alt du bør vite om DeepFake -teknologien. Har du noen spørsmål? Kommenter gjerne det samme nedenfor.

Related Posts