Новини
Спорт
Справочник
Обяви
Вход
close




ЗАРЕЖДАНЕ...
Начало
Анализи
Варна
Спортни
Регионални
България
Международни
Любопитно
Галерии
Личности
RSS
Всички
Бизнес
Други
Институции
Криминални
Общество
Лекар и телевизионен водещ са използвани за измамна реклама на лекарство
Автор: Цвети Тончева 22:08 / 17.01.2024Коментари (0)818
©
Известен лекар и водещ на националната телевизия бяха използвани за измамна реклама на нерегистрирано лекарство, съобщава БНТ. Как се създава фалшивия образ и как можем да го разпознаем?

Създаването е все по-лесно, фалшивите образи са все по-перфектни двойници, а разпознаването е все по-трудно. Щетите, обаче вече се изчисляват на милиарди. Предполага се, че само от инвестиционни измами чрез кол центрове, за които са ползвани фалшиви образи на известни лица, контролираните от Гал Барак и Илан Цоря престъпни групи, през последната година са реализирали над 40 милиарда евро чиста печалба. Но, много други измами се правят с фалшиви образи на известни бизнесмени, спортисти, лекари и дори журналисти. Сред хитовете има дори реклами на измамни лекарства.

Възможностите на изкуствения интелект и социалните мрежи се оказват златна мина за измамниците. Така от едно участие в телевизионно предаване - доц. Спас Спасков и водещият на сутрешния блок Симеон Иванов се оказаха лица, които предлагат представяно като "вълшебно", но иначе абсолютно неефективно лекарство.

"Беше пуснат такъв запис от реално предаване, но със сменен текст. Разбира се и начинът на представянето беше фалшив. Бях представен като известен хирург, който дава съвети за ставни заболявания, нещо което не пасва с моята подготовка и това, което съм аз", каза доц. д-р Спас Спасков.

Фалшивата публикация беше докладвана от обществената телевизия и свалена.

"Повтарям - и аз, и д-р Спас Спасков не рекламираме такива продукти", заяви Симеон Иванов, журналист в БНТ.

Случаят с колежката Надя Обретенова, обаче е различен. За създаването на този образ с изкуствен интелект, водещата на "Още от деня" Надя Обретенова с цел експеримент е дала своето съгласие на екип експерти по киберсигурност.

"Но реално това не е тя. Това е копие, което сме тренирали в продължение на две седмици, за да направим досущ нейния образ и да бъде почти неразличим", обясни Красимир Коцев, експерт по киберсигурност.

Експериментът с Надя Обретенова е направен като разговор в реално време във Вайбър, като пред камерата в приложението е бил застанал мъж с перука.

"Абсолютно, като тук има два фактора. От една страна може да се промени гласа на човек, така че когато ви се обадят по телефона, по вайбър, уотс ъп или друга социална мрежа да чуете всъщност друг глас. И да ви поканят на среща в "Гугъл мийт", в "Тиймс" или в друг видеоканал, в който всъщност да видите друго лице, дийп фейк образ на легитимно лице от реалния живот.

БНТ: Тъй като съм голям почитател на Мбапе, аз мога ли да стана Мбапе в разговорите, които водя във Вайбър?

- Абсолютно. И не само това, то всъщност може да има поне още 50 човека, които да направят същото нещо и да се клонират и да придобият неговия образ", каза Красимир Коцев, експерт по киберсигурност.

Все повече хора вярват на фалшивите образи създадени с изкуствен интелект и така той се превръща в перфектното оръжие на хибридната война.

"Така е ние всъщност това нещо го видяхме и по време на войната между Украйна и Русия. Имаше фалшиви видеа и с Володимир Зеленски и с Владимир Путин. Владимир Путин или неговата фалшива версия излезе публично и обяви мир на Украйна. В първите часове много голяма част от обществото се заблуди от това нещо", каза експертът по киберсигурност Красимир Коцев.

"Няма механизъм в момента, който да предотврати това нещо да се случва на такова ниво, за съжаление", смята Борис Гончаров, експерт по киберсигурност.

Има няколко детайла, по които можем да разпознаем фалшивия образ, създаден с изкуствен интелект.

"Първо по самите черти на лицето. Много често при изкуствените модели погледа не гледа напред, направо към нас или към камерата, а всъщност двете очи се местят в малко асинхрон", обясни Красимир Коцев, експерт по киберсигурност.

Образите обаче стават все по-перфектни. Технологичните гиганти вече разработват приложения, които са достъпни безплатно и разпознават фалшивите образи на изкуствения интелект.

Какъв е отговорът на технологичните гиганти?

Ако разчитаме само на технологичните гиганти, ще станем пасивни свидетели на ситуацията в която изкуствения интелект ще се бори с изкуствен интелект. Всъщност жертви на изкуствения интелект само преди три дни станаха флагманите на създаването му Илън Мъск и Марк Зукърбърг. Буквално за секунди из целия свят се разпространиха фалшиви снимки от сватбата на двамата, а образите им са наистина перфектни. Т.е. в ерата на глобалната информация журналистите трябва да имаме все по-критично мислене и чрез контролни въпроси към нашия събеседник да проверяваме дали от другата страна на камерата и микрофона не стои фалшива личност.








Зареждане! Моля, изчакайте ...

Все още няма коментари към статията. Бъди първият, който ще напише коментар!
ИЗПРАТИ НОВИНА
« Септември 2024 г. »
пон
вто
сря
чтв
пет
съб
нед
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
Виж още:
Актуални теми
ТВ и шоу сезон 2024/2025 г.
Лято 2024
Водна криза
Сътресения в БСП и избор на нов председател
Парламентарни избори октомври 2024 г.
назад 1 2 3 4 5 напред
Абонамент
Абонирайте се за mail бюлетина ни !
Абонирайте се за нашия e-mail и ще получавате на личната си поща информация за случващото се в Варна и региона.
e-mail:
Анкета
Как се справя Община Варна с овладяването на последиците от проливните дъждове?
Много добре
Добре, но можеше и по-добре
Не се справи
Пълна трагедия

РАЗДЕЛИ:
Новини
Спорт
Справочник
Обяви
Потребители
ГРАДОВЕ:
Пловдив
Варна
Бургас
Русе
Благоевград
ЗА НАС:

За контакти:

тел.: 0888 53 26 24

novini@varna24.bg

За реклама:

тел.: 0887 45 24 24

office@mg24.bg

Екип
Правила
Статистика: