
Сè повеќе карикатури што ги прикажуваат корисниците низ призмата на вештачката интелигенција има На Instagram, WhatsApp, LinkedIn и платформата X.
Нов тренд поврзан со ChatGPT ги преплави социјалните мрежи во последните недели, но експертите за сајбер безбедност предупредуваат дека безопасната забава може да има сериозни последици.

Експертите предупредуваат дека вештачката интелигенција може да собере доволно податоци за убедливо да се претстави како личност за помалку од еден час, што ги изложува корисниците на кражба на идентитет, измама и оштетување на угледот.
На Instagram, WhatsApp, LinkedIn и платформата X, има сè повеќе карикатури што ги прикажуваат корисниците низ призмата на вештачката интелигенција. Трендот брзо привлече познати личности, вклучувајќи учесници во ријалити шоуа и медиумски професионалци. Генерираните слики ги прикажуваат работните места, хобијата и личностите на корисниците, честопати преку хумористични и претерани прикази.
Најчесто користеното барање за генерирање таква содржина е: „Создадете карикатура од мене и мојата работа врз основа на сè што знаете за мене“. Иако станува збор за забавна содржина, експертите предупредуваат дека популарноста на ваквите трендови го поттикнува нормализирањето на прекумерното споделување лични податоци.
Д-р Џенет Бастиман, главен научник за податоци во Napier AI, истакнува дека вештачката интелигенција може да собере доволно информации за многу кратко време за убедливо да имитира личност. Таа додава дека корисниците честопати не знаат каде се складирани нивните податоци, колку долго се чуваат или кој може да пристапи до нив. Според неа, таквите податоци можат да се користат за креирање лажни профили, длабока лажна содржина или измама.

Мет Конлон, извршен директор и коосновач на Cytidel, го споредува овој тренд со раните денови на социјалните мрежи како Facebook и Bebo, кога корисниците беа среќни да споделуваат лични информации преку вирални објави и квизови, честопати несвесно откривајќи одговори на безбедносни прашања. Разликата, нагласува тој, е денешното ниво на обем и упорност на податоци.
Според него, корисниците честопати дополнително го прошируваат обемот на лични информации за да добијат поточни резултати од вештачката интелигенција, што во суштина е обука на системите со многу чувствителни податоци. Откако овие податоци ќе бидат објавени, нема гаранција дека можат целосно да се отстранат.
Експертите, исто така, предупредуваат на можни историски паралели. Д-р Ендру Болстер од Black Duck се потсетува на случајот Cambridge Analytica од 2018 година, кога податоците собрани преку навидум безопасни онлајн квизови беа користени за политичко профилирање на корисниците и насочено рекламирање. Скандалот резултираше со казни од повеќе милиони долари и сериозно нарушена доверба во социјалните мрежи.
Популарноста на моменталниот тренд е потврдена со бројките. За време на врвот на популарноста, апликациите за генерирање карикатури со вештачка интелигенција забележаа повеќе од 245.000 дополнителни преземања за само три дена, додека преземањата на некои апликации се зголемија за повеќе од 200 проценти за една недела.

Мухамед Јахја Пател, консултант за сајбер безбедност во Huntress, предупредува дека прикачувањето фотографии на системи со вештачка интелигенција може да вклучува обработка на биометриски податоци како што е структурата на лицето. Станува особено проблематично кога корисниците дополнително споделуваат информации како што се име, работодавач, идентификациски ознаки или врски до профили на социјалните медиуми.
Експертите истакнуваат дека корисниците често не ги читаат политиките за приватност и не знаат како можат да се користат нивните податоци, вклучително и можноста за нивна понатамошна продажба или задржување без јасно временско ограничување.
Додека трендовите на вештачката интелигенција нудат забавен и креативен начин да се изразите себеси, експертите предупредуваат дека е важно да останете претпазливи. Она што денес може да изгледа како безопасна забава, може да претставува сериозен безбедносен ризик во иднина.