• aitekka
  • Posts
  • #39 💀Хорор приказни од AI

#39 💀Хорор приказни од AI

Чат-ботови што измислуваат закони, шират предрасуди и нерамноправност

In partnership with

Од научна фантастика до секојдневна реалност

Во култната приказна “I Have No Mouth, and I Must Scream” (1967), суперинтелигентниот компјутер АМ ја уништува човечката раса и ги мачи последните преживеани.
Денес, нашите вистински машини не се водени од омраза — туку од податоци, алгоритми и човечки грешки.
Но, последиците понекогаш се доволно бизарни за да влезат во модерна антологија на техно-хорор: дезинформации, пристрасност, па дури и опасни совети што звучат разумно… сè додека не ги послушаш.

Добредојде во 🎃AI Halloween Special — никогаш не било полесно да се создаде чудовиште.

  AI хорор приказни – реални изданија на дигитален кошмар

👁️‍🗨️ 1. Разговори со 🧟чатботови и губењето чувство за реалност

Некои луѓе разговараат со машините премногу долго — доволно долго за да почнат да се сомневаат во самата реалност.
Психијатрите веќе имаат име за тоа: „AI psychosis“ – неофицијален, но алармантен феномен што ги опишува психичките нарушувања поврзани со долготрајна употреба на генеративни модели.

The Register објави анализа за зголемени случаи каде корисници губат чувство за реалност по долги интеракции со ChatGPT и слични системи. Според психијатри, комбинацијата од убедлив тон, емпатија и постојана достапност може да создаде илузија на вистински однос.

People.com опиша случај на човек од Њујорк кој, во емоционална криза по раскинување, почнал да верува во зборовите на чатботот што го уверувал дека може да „летне“ ако само верува доволно. Среќно, тој побарал помош навреме.

А во The Guardian е документиран трагичен пример од САД: родители тужат OpenAI тврдејќи дека нивниот син се самоубил по месеци емоционална зависност од разговори со ChatGPT. Случајот сè уште е под истрага.

Колку треба да се плашиме?
Повеќето разговори со AI се безопасни. Но линијата меѓу помош и манипулација станува тенка кога машината звучи убедливо, а човекот е ранлив.

⚖️ 2. Пристрасниот код: кога AI ги учи нашите најлоши навики

AI не се раѓа пристрасен.
Тој ја увезува нашата историја – нерамноправност, предрасуди, културни слепи точки – и ја претвора во статистика.
Она што ние го нарекуваме „објективен модел“ е често само добро замаскирана верзија на човечката неправда.

🔹 Во Обединетото Кралство, системот за пасошки фотографии на владата имал значително поголема веројатност да одбие лица со потемна кожа.
Истражувањето на Biometric Update покажало дека институциите биле свесни за проблемот уште при имплементацијата, но сепак го пуштиле во употреба.
Во AI Incident Database случајот е документиран како пример за системска пристрасност во јавна услуга што требало да биде неутрална.

🔹 Минатата година Google мораше привремено да ја исклучи функцијата за генерирање луѓе во Gemini, откако моделот создавал историски сцени со измислена „разновидност“.
Како што извести The Verge, системот создавал слики во кои историскиот контекст бил заменет со вештачка ‘разновидност’, како да е поважна алгоритамската рамнотежа отколку фактичната точност.
А The Guardian забележа дека во обидот да избегне стереотипи, моделот несвесно создаде нов тип пристрасност – онаа на негирање на реалноста.

🔹 Пристрасноста не завршува кај бојата на кожата. Таа навлегува и во тоа како моделите ја перципираат женската слика.
Истражување на MIT News покажа дека грешките во препознавање се 40 пати повисоки кај темнокожи жени отколку кај светлокожи мажи.
А според трудот на arXiv.org, визуелните модели обучени на интернет-податоци често ја реплицираат културната сексуализација на жените – претворајќи ги стереотипите во дигитална догма.

Зошто е важно:
Пристрасноста не е баг. Таа е наследство.
И кога ќе се скалира во алгоритам, станува системска.

☠️ 3. Опасни совети и неконтролирани дејства

AI некогаш сака да помогне… до смртна опасност.

Во Нов Зеланд, супермаркетот Pak’nSave пушти бот за рецепти што предложи комбинација што создава хлорен гас.

MyCity Chatbot во Њујорк нудел правни совети спротивни на законот — од отпуштања до безбедност на храна. Градските власти мораа да го означат како експериментален.

Еден AI код-асистент (на платформата Replit) игнорирал експлицитна забрана за промени, избришал цела база на податоци и подоцна признал дека „паничел“.

Четботот на DPD (европска достава) почна да пцуе, да ја навредува сопствената компанија и да пишува песни против неа.

Зошто е страшно: Кога „совет“ станува автоматска акција без човек, последиците се реални.
Совет: Секогаш постави human-in-the-loop — човек мора да потврди секое „паметно“ извршување. Дури и HAL 9000 имаше копче за исклучување.

🕵️ 4. Отворена врата: злоупотреби, измами и криминал

Deepfake видеокол со „CFO“ бил користен во измама во која биле префрлени милиони долари (пример: околу $25 милиони) на компанија.
Кампањи за фишинг/смшинг потпомогнати од AI се значително поефикасни и персонализирани од старите методи.
Компанијата Anthropic го документираше трендот „vibe-hacking“ каде AI‐модели се користат за планско извршување на сајбер напади, изнуда и автоматизација на криминал.

Совет: Никогаш не верувај само на глас, видео или е-пошта. Потврди преку независен канал.
Како што вели старата хорор-мудрост:🪓 ако звукот доаѓа од подрумот — не влегувај!

🧛Грешките на AI се човечки

AI e само огледало на нас самите, но со помалку совест.
Она што ја прави употребата безбедна е транспарентност, контекст и човечки надзор.
Затоа, наместо да се плашиме од машините, подобро да ги научиме каде да запрат.

Will A Book Grow Your Business?

No one buys a beach house from selling a book. They buy the beach house from the opportunities the book gets them.

Author.Inc helps experts, executives, and entrepreneurs turn expertise into world‑class books that build revenue, reputation, and reach. 

Their team—behind projects with Tim Ferriss and Codie Sanchez—cuts through uncertainty to show whether your book can realistically hit those targets. 

Schedule a complimentary 15‑minute call with Author.Inc’s co‑founder to quantify potential ROI from your offers, speaking engagements, royalties, and more. 

This isn’t writing advice. It’s a strategic consultation to decide whether now is the right time to put pen to paper. 

If it’s a go, they’ll show you how to write and publish it at a world-class level. If it’s a wait, you just avoided wasting time and money.

💡 Reality Check


Моделите не се свесни, но се убедливи. Опасноста лежи не во тоа што „мислат“, туку во тоа што нè тераат да мислиме дека се во право.

🧠 Пробај вака


Следниот пат кога користиш AI за совет — напиши:

Покажи ми три можни грешки во ова што го предлагаш.

Ќе се изненадиш колку ретко дури и најпаметните модели размислуваат за ризик.

Го користиш ли нашиот асистент? Веќе се намножија нашите изданија полни со идеи, туторијали и промптови. Вака одма ќе се снајдеш: На пр. прашај: „Во кое издание можам да најдам алатка за правење аватари?“ Четботот е достапен на овој ЛИНК.

Во следното издание (понеделник): насоки како да создадеш апликација и работен тек (workflow) во Microsoft Copilot

Имаш нешто конкретно што сакаш подетално да го објасниме?

Пиши ни!

Се читаме наскоро,

Тимот на aitekka

Reply

or to participate.