HTCinside


Индийски политик използва AI, за да преведе речта си на друг език

Докато най-новите технологии се внедряват в ежедневието на хората, за да улеснят живота им, изглежда, че политиците обмислят начини да ги използват, за да отговорят на изискванията си, когато става дума за политика и избори.

Наскоро Манодж Тивари, индийски политик, беше в новините за това, че е използвал изкуствен интелект, за да изглежда, че казва неща, които всъщност не е казвал. Той беше видян да говори на роден индийски език харианви, диалект на хинди, който беше различен от английската версия, на която е заснето видеото.

Фирмата, отговорна за това, The Ideaz Factory, обясни, че видеото е създадено за „позитивната“ кампания на местната управляваща партия Bharatiya Janata Party, към която принадлежи Тивари. Това беше постигнато с помощта на технологията deepfake.

Deepfake е комбинация от думите Deep learning и fake. Това е използването на технология за дълбоко обучение с цел създаване на фалшиви видеоклипове. Това дълбоко обучение е обединено от други мощни инструменти като машинно обучение и изкуствен интелект. Използваното машинно обучение включва обучение на архитектури на невронни мрежи като автокодери и генеративни състезателни мрежи.

Тази технология е в състояние да накара човек във видеоклипа да прави неща, които първоначално не е правил, като например да действа по определен начин или да казва неща, или да бъде изцяло заменен от някой друг. Това се постига чрез използване на споменатите инструменти, като по този начин се манипулира зрителят.



Относно това как е направено видеото с участието на Тивари, Сагар Вишной, който работи с The Ideaz Factory, обяснява: „Използвахме алгоритъм за дълбока фалшива синхронизация на устните и го обучихме с речи на Манодж Тивари, за да превежда аудио звуците в основни форми на устата.“ Това позволи на Тивари да разшири обхвата си до общността на Харианви и да достигне до избирателна база, което иначе не би могъл да направи.

Въпреки че дълбоките фейкове не са често срещани в политическия поток, това не се случва за първи път. Видео от 2018 г. на тогавашния президент на САЩ Барак Обама породи притеснения за това как фалшивите видеоклипове могат да парадират като истински видеоклипове в политическата сфера. Излишно е да казвам, че това накара политическите и техническите анализатори да обсъждат какво може да направи технологията за политиката на една страна и различните начини, по които тя може да повлияе на изборите, без всъщност да го иска.

Прочети -Технологията за откриване на емоции трябва да бъде забранена, казва AI Now

САЩ реагираха бързо, като Комитетът по етика на Камарата на представителите на САЩ информира членовете, че ще се счита за нарушение на правилата на Камарата, ако някой член публикува такова дълбоко фалшиво видео. Калифорния, от друга страна, вече прие закон, който забранява споделянето на дълбоки фалшификати на политици по-малко от 60 дни след изборите. Twitter, Facebook и Reddit също актуализираха политиките си за борба с deepfakes на съответните им платформи.

Deepfakes вече има доста добра репутация, че се използва в множество порнографски видеоклипове на знаменитости, фалшиви новини, измами и много подобни вредни видеоклипове. Въпреки това, тепърва предстои да се види как дълбоките фалшификати ще превземат медийното потребление, както го познаваме, и как законодателството се справя с морално сивите зони, които със сигурност ще възникнат от такива медии.