Снимка: от отворени източници
Потребителите вече са се научили как да премахват водния знак на Sora, така че за изкуствения интелект става все по-трудно да го разпознава
Източник:
С пускането на новия генератор на видеоклипове Sora на OpenAI броят на фалшивите видеоклипове, които е трудно да се различат от истинските, се увеличи драстично в интернет. Потребителите на TikTok и YouTube се шегуват, че вече е почти невъзможно да се вярва на видеоклиповете в интернет.
Джереми Караско, автор на канала Showtools.ai в YouTube, обясни на какво трябва да обърнем внимание, за да открием изкуствен интелект. Според него трябва да се търсят несъответствия, като например устни, които не съвпадат с речта, изчезващи обекти и кадри от предполагаеми камери за наблюдение, които ИИ генерира особено добре.
OpenAI добави водни знаци на Sora и скрити метаданни, за да обозначи клиповете като генерирани от изкуствен интелект, но в рамките на една седмица в интернет се появиха ръководства за премахването им. Караско съветва да се търсят размазани места във видеото, където може да се намира водният знак.
Като пример Караско цитира видеоклип с мечка, която скача на батут в задния двор на къща. Тук се забелязват всички шаблони на съвременните видеоклипове с изкуствен интелект: нощни кадри от видеонаблюдение, странна физика и мечка, която излиза от кадъра и отива наникъде. Въпреки това този видеоклип е събрал повече от 13 милиона гледания само в YouTube.
Важно е да запомните, че повечето модели на изкуствен интелект създават кратки клипове с продължителност до 10 секунди. Но Караско подчертава, че с повишаването на качеството на видеоклиповете с ИИ методите за разпознаване ще стават все по-сложни и вече няма да е възможно да се разчита изцяло на очите.
Сайтът не е сигурен! Всички ваши данни са изложени на риск: пароли, история на браузъра, лични снимки, банкови карти и други лични данни ще бъдат използвани от нападателите.