Измама с лика на Марина Цекова: Фалшив видеоклип рекламира схеми за бързо забогатяване | ||||||
| ||||||
"Нова платформа ще ви позволи да печелите стабилно и без риск. Това вече е тествано от обикновени хора, които за първия месец успяха да изкарат годишните си заплати, а някои дори и повече". Това са думи, изречени от генерирания от изкуствен интелект глас на Марина Цекова - уважаван публицист и водеща на "Събуди се", и целят да ви въвлекат в измама. Във фейк видеото е и лицето на президента на България Румен Радев. Но и думите на държавния глава в клипа са генерирани от измамници. "Дирекция "Киберпрестъпност" в ГДБОП ежедневно премахва подобни видеа. Или жертви на инвестиционни измами ни сигнализират, или хора, които са ги видели случайно. Това конкретно видео го докладвахме и се надяваме в близките час-два да изчезне", заяви главен комисар Владимир Димитров, "Киберсигурност" в ГДБОП. Изминаха 8 часа, след като ГДБОП докладва фалшивото видео на Facebook, но то все още е публично в социалната мрежа. Профилът на жертвите на измамите показва, че 90% от тях са мъже. Те са над 30-годишна възраст с добре платена професия и повече свободно време. Но измамниците зад клавиатурата не подбират. "Само днес имаме две жалби от дами, които са загубили пари - едната 30 000 лева, другата над 80 000 лева в подобни инвестиционни измами. Тези измами продължават няколко месеца", посочва главен комисар Димитров. Проверка на NOVA показва, че това е единственото видео във въпросната Facebook страница, която е създадена на 7 февруари. Има само 29 последователи, но фалшивата реклама е видяна от хиляди потребители. Описанието на видеото е на руски и гласи: “Уникални новини за гражданите". "Тези видеа се изготвят от организирани престъпни групи, които се занимават с инвестиционни измами. Ситуират своите кол центрове в държави като България, Молдова, Украйна, Беларус, Казахстан. От тези колцентрове се таргетират граждани на практика на територията на цял свят. Това не е само проблем за България", категоричен е главен комисар Димитров. В края на всяко дийпфейк видео има призив жертвите да кликнат на линк, който ги отвежда към сайт, където им искат лични данни. "Име, фамилия и телефон. В последствие с нея се свързват от този кол център да бъде назначен на жертвата персонален съветник, който да комиуникира с нея и да я подканва да вкарва пари в тази платформа. Някои от жертвите се приканват да вземат заем от техни приятели или бързи кредити, за да инвестират в така наречената инвестиционна платформа. Целта е да се въведе в заблуждение бъдещата жертва. Когато нещо се каже от обществена фигура - всички се надяват това да е истина. Ествествено това е дийпфейк видео, което е имамно. Това е идеята на престъпниците - лице, което е познато от телевизорите, да каже нещо подвеждащо", твърди експертът от ГДБОП. Но дали подвеждащият изкуствен интелект, използван от престъпници, може да се впрегне и от разследващите в тяхна помощ. "Има широко приложение, но човешкият мозък е незаменим. Каквото направи AI - ще трябва да има контрол от страна на човека. Използвали сме го за някои неща, но не се справи добре и в крайна сметка ние трябваше да си свършим работата", подчертава главен инспектор Димитров. Тази игра на “дълбоката лъжа" все още няма правила. Докато законодателните органи измислят такива - съветът на експертите е, ако нещо звучи прекалено хубаво, за да е истина, то най-вероятно е измама. |
Още по темата: | общо новини по темата: 6073 | ||||||||||||
| |||||||||||||
предишна страница [ 1/1013 ] следващата страница |