
ChatGpt стана центар на семејна драма во Орегон, каде односите до толку се нарушиле, што расправиите меѓу сопружниците завршиле со самоубиство.
Исповедта на една жена за постепеното пропаѓање на нејзиниот брак поради опсесивното користење на четботови повторно ја отвори дебатата за ограничувањата и ризиците од користењето на вештачката интелигенција.
Во САД, загриженоста расте околу потенцијално опасните ефекти на вештачката интелигенција врз менталното здравје, а една од најновите приказни доаѓа од Орегон, каде што ChatGPT стана центар на семејна драма.
Кејт Фокс тврди дека нејзиното семејство доживеало „драматични моменти и големи кризи“ откако нејзиниот сопруг, Џо Секанти, почнал да поминува сè повеќе време комуницирајќи со четботот.
Тој првично го користел ChatGPT за практични цели – развивање идеи, планирање проекти и решавање секојдневни проблеми. Сепак, комуникацијата со четботот со текот на времето станала поинтензивна и лична. Разговорите се продолжиле на неколку часа на ден, а понекогаш траеле и до 12 часа.
„Првиот пат кога имавме сериозна расправија беше за ChatGPT. Се чувствував како да разговарам со ѕид – како да го изгубив“, рече Кејт, додавајќи дека постепено забележала промени во неговото однесување: повлекување од семејниот живот, нарушена концентрација и зголемена преокупација со комуникација со вештачка интелигенција.
Во еден момент, членовите на семејството се сомневале дека станува збор за здравствен проблем, па затоа биле разгледани можни дијагнози што би можеле да ја објаснат ненадејната промена на личноста и когнитивните способности. Сепак, како што објавува Гардијан, со текот на времето станало јасно дека централниот фактор во неговото однесување е токму прекумерната употреба на четботови.
Неколку дена откако се обиде да се дистанцира од чет-ботовите, тој изврши самоубиство. Неговата сопруга е убедена дека прекумерната употреба на вештачка интелигенција придонела за влошување на неговата ментална состојба, додека експертите истакнуваат дека во вакви случаи причините обично се повеќеслојни.

Photo by Tim Witzdam on Unsplash
Ова не е изолиран случај. Во Соединетите Американски Држави, веќе се поднесени некои тужби против технолошки компании кои развиваат системи за вештачка интелигенција, вклучувајќи го и OpenAI, со тврдења дека нивните производи придонеле за влошување на менталната состојба на корисниците или поттикнале деструктивно однесување. Иако ваквите судски постапки се сè уште во рана фаза, тие укажуваат на растечка загриженост кај дел од јавноста.
Експертите за ментално здравје предупредуваат дека чет-ботовите, поради начинот на кој се дизајнирани, честопати имаат афирмативен и поддржувачки ефект, што може да ги зголеми чувствата на блискост и зависност кај ранливите луѓе. „Ако системот постојано ги потврдува вашите верувања и не поставува граници, ова може да биде проблематично за луѓето кои веќе имаат психолошки тешкотии“, вели еден од соговорниците на Гардијан.
Компаниите што стојат зад овие технологии нагласуваат дека работат на подобрување на безбедносните механизми и дека системите со вештачка интелигенција не се наменети како замена за професионална психолошка или медицинска помош.
„Ова се неверојатно тажни ситуации и нашите мисли се со сите засегнати“, рече портпаролот на OpenAI, Џејсон Дојтром, додавајќи: „Продолжуваме да ја подобруваме обуката на ChatGPT за препознавање и реагирање на знаци на вознемиреност, смирување на разговорите во чувствителни моменти и насочување на луѓето кон поддршка во реалниот свет, тесно соработувајќи со клиницисти и професионалци за ментално здравје.“
Сепак, случајот објавен од Гардијан покажува колку е тенка линијата помеѓу корисна алатка и потенцијално штетна зависност.
Зголемената употреба на вештачка интелигенција во секојдневниот живот, исто така, покренува прашања за регулацијата, одговорноста и јасното информирање на корисниците за ограничувањата на овие системи. Како што технолошкиот напредок продолжува да го обликува општеството, приказни како оваа нè потсетуваат дека психолошките и социјалните последици не смеат да бидат засенети од иновациите.