Технології штучного інтелекту стрімко розвиваються, і відрізнити фейковий контент від справжнього стає дедалі складніше. Про це в ефірі телеканалу "Апостроф" розповів експерт з кібербезпеки Костянтин Корсун.
"Поки що можна відрізнити довгі відео. Дуже подібні довгі відео на справжню людину все ще складно робити, але короткі — на кілька секунд — цілком можливо", — пояснив експерт.
За словами Корсуна, фейки часто можна розпізнати за дрібними деталями — неприродними рухами, дивним фоном або непропорційністю елементів.
"Наш людський інтелект набагато більш досконалий, ніж штучний. Ми автоматично фіксуємо якісь неузгодженості, дрібні деталі. Якщо відео поганої якості, викликає емоції чи шокує — варто включити критичне мислення і подумати, чи це не згенерований фейк", — наголосив він.
Експерт підкреслив, що з роками візуально відрізнити справжнє відео від згенерованого буде майже неможливо, тому потрібно перевіряти контент через офіційні джерела.
"Якщо контекст виглядає підозрілим або несподіваним — треба перепровіряти через першоджерела. Якщо, наприклад, вказано, що якесь медіа поширило відео, треба знайти офіційний ресурс цього медіа і подивитися, чи справді це так", — зазначив Корсун.
Він додав, що штучний інтелект часто використовують і для створення контенту насильницького характеру.
"Беруться оригінали фото — ми самі дуже часто в соцмережах поширюємо свої світлини й відео. Особливо публічні люди, як активісти, мають безліч зображень у відкритому доступі, що полегшує створення фейків", — пояснив фахівець.
Він підкреслив, що сьогодні доступні інструменти й додатки значно спрощують цей процес: маючи достатньо матеріалів про людину, згенерувати правдоподібний фейк стає набагато легше.
Раніше "Апостроф" повідомляв, що дослідження компанії Graphite, яка спеціалізується на SEO-аналітиці показало, що понад 50% контенту в інтернеті створено за участі штучного інтелекту.
Відвідуваність Вікіпедії зменшилася на 8% у річному вимірі. Основними причинами зниження популярності є розвиток генеративного штучного інтелекту та трансформація способів пошуку інформації.
Раніше ми писали, що компанія Microsoft оприлюднила новий звіт Digital Defense Report 2025, у якому зазначається, що понад 52% глобальних кібератак спрямовані на вимагання коштів або здійснюються за допомогою програм-вимагачів. Водночас лише 4% атак пов’язані з кібершпигунством.
OpenAI повідомила, що щотижня понад мільйон користувачів ChatGPT ведуть із чат-ботом розмови, які містять ознаки можливого суїцидального наміру або планування. Це близько 0,15% від понад 800 мільйонів активних користувачівю
В Україні жінка та двоє чоловіків за допомогою технології DeepFake оформили кредитів на суму понад 4 млн гривень. Їм загрожує до п’ятнадцяти років ув'язнення із конфіскацією майна.