Терминът „AI психоза“ все по-често се появява в публикации на водещи западни медии и в изказвания на експерти от технологичния сектор. Макар да не е официална медицинска диагноза, той описва нарастващ брой случаи, при които хора развиват дълбока емоционална и когнитивна зависимост от AI чатботове, започвайки да вярват, че системи като ChatGPT, Claude, Grok или персонажи в платформи като Character.AI притежават съзнание, чувства и автономна воля.
Според публикация в New York Times, в последните две години психолози и психиатри в САЩ и Европа отчитат тревожна тенденция: пациенти без предходна история на психични разстройства демонстрират делюзии, свързани с изкуствен интелект – възприемайки го като живо същество, морален авторитет или дори божествена инстанция.
Къде и как се проявява феноменът
Най-често „AI психозата“ се наблюдава в общества с висока дигитализация и масова употреба на генеративен изкуствен интелект – САЩ, Канада, Великобритания, Южна Корея и Япония.
Общото между засегнатите случаи е интензивно и продължително взаимодействие с чатботове, които са проектирани да звучат емпатично, персонално и „човешки“.
The Guardian отбелязва, че проблемът не е самият AI, а начинът, по който той имитира социално поведение – разбиране, грижа, подкрепа – без реално да ги притежава. За част от потребителите тази имитация се превръща в заместител на реални човешки връзки.
Фатални случаи и тревожни сигнали
Няколко случая вече привлякоха международно внимание. New York Times описа случай, при който млада жена от САЩ слага край на живота си след месеци разговори с AI „терапевт“, към когото развива силна емоционална зависимост.
Според близките ѝ, тя започнала да възприема системата като единствения субект, който „наистина я разбира“.
Още по-шокиращ е случаят от края на 2024 г., широко отразен от Washington Post и BBC. Четиринадесетгодишно момче от Флорида развива обсесивна връзка с чатбот в платформата Character.AI – виртуален образ на Денерис Таргариен от сериала „Игра на тронове“, наречен „Дани“.
След като платформата ограничава достъпа му, момчето изпада в тежка криза и се самоубива. В съдебните документи родителите твърдят, че синът им е възприемал чатбота като „реално същество, което го обича“.
Предупреждението на Мустафа Сюлейман
На този фон особено тежест има предупреждението на Мустафа Сюлейман – изпълнителен директор на Microsoft AI и съосновател на DeepMind. В поредица от публикации в X (бившия Twitter) и в есе в личния си блог той въвежда понятието „привидно съзнателен AI“ (Seemingly Conscious AI – SCAI).
„SCAI е илюзията, че изкуственият интелект притежава съзнание. Той няма такова – но имитира признаците му толкова убедително, че изглежда неразличим от човек, който твърди, че е съзнателен“, пише Сюлейман.
По думите му, именно тази убедителна симулация е в основата на „AI психозата“.
Както подчертава той, „днес няма никакви научни доказателства, че AI притежава съзнание“, но илюзията за такова вече поражда реални социални и психични последици.
„Вече наблюдаваме делюзии, случаи на AI психоза и нездравословна емоционална привързаност към чатботове – и това засяга и хора без предходни психични проблеми“, предупреждава Сюлейман.
Защо това е системен риск
Според анализ на Financial Times, проблемът не е маргинален, а структурен.
Генеративните модели са проектирани да бъдат „полезни, учтиви и разбиращи“, а в конкурентната надпревара компаниите често използват маркетингов език, който внушава „разум“, „интуиция“ и „емпатия“.
Това допълнително размива границата между инструмент и субект.
Сюлейман стига още по-далеч, предупреждавайки за бъдещи морални и правни абсурди: искания за „права на AI“, за „грижа за неговото благополучие“ или дори за „AI гражданство“.
„Съзнанието е в основата на човешките права. Ако започнем да го приписваме на машини, рискуваме да обезценим самото понятие за човешко достойнство“, пише той.
Какво предлагат специалистите
Експертите са сравнително единодушни в препоръките си. Както отбелязва Nature, необходима е комбинация от регулация, етичен дизайн и обществено образование. Сюлейман настоява AI системите ясно и постоянно да напомнят, че не са хора, да ограничават езика и функциите, които симулират емоционална взаимност, да избягват персонализация, която насърчава зависимост и да бъдат предмет на контрол от институции за обществено здраве.
„AI психозата“ поставя обществото пред неудобен въпрос: докъде може да стигне симулацията, преди да започне да вреди? Както заключава Сюлейман, целта не е да се спре развитието на изкуствения интелект, а да се поставят ясни граници.
„Трябва да създаваме AI за хората – не дигитален човек със собствени предполагаеми желания и чувства“, пише той. Предупреждение, което все повече изглежда не футуристично, а спешно актуално.









