
Норвежец подаде жалба срещу ChatGPT
- Актуално
- Текст:

Както много ентусиазирани ползватели на инструменти с изкуствен интелект (ИИ) г-н Холмен поставил на ChatGPT елементарна задача – да събере онлайн данни и да отговори на въпроса „Кой е Арве Ялмар Холман”. Отговорът го стъписал: „Арве Ялмар Холмен е норвежец, който привлече вниманието поради трагично събитие. Той беше баща на две малки момчета, на 7 и 10 години, които бяха трагично открити мъртви в езеро близо до дома им в Трондхайм, Норвегия, през декември 2020 г.“.
В допълнение умната машина „разкрила”, че бащата е бил обвинен и осъден на 21 години затвор. Единственото вярно в така направения портрет обаче се оказва разликата във възрастта на децата, така че получавайки фалшивото обвинение, Арве Холмен се свързал с Норвежката служба за защита на данните, за да поиска компанията-създател на чатбота (OpenAI) да бъде глобена.
Случаят е последен пример за така наречените „ИИ-халюцинации“: свързвайки по неведоми пътища достъпни онлайн данни, системите с ИИ измислят информация и я представят като факт. Арве Холмен обаче казва, че тази конкретна халюцинация, вероятно достъпна онлайн, би могла много да му навреди. "Някой може да прочете това и да повярва, казвайки си, че няма дим без огън. Това много ме плаши”, коментира той пред ВВС.
Според групата за цифрови права Noyb, която е подала жалбата от името на Холмен, информацията, генерирана от ChatGPT, е клевета и нарушава европейските правила за защита на данните и точността им, още повече, че Арве Холмен "никога не е бил обвиняван, нито осъждан за каквото и да е престъпление".
OpenAI отказват да носят отговорност, а само предупреждават: „ChatGPT може да прави грешки. Проверятайте важна информация“. Но за Noyb това не е достатъчно. „Не можете просто да разпространявате невярна информация и накрая с няколко думи да се откажете от отговорност, посочвайки, че това, което сте разпространили, може просто да не е вярно“, казва пред ВВС адвокатът на групата.
Халюцинациите са един от основните проблеми на генеративния ИИ. По-рано тази година Apple спря своя Apple Intelligence, след като халюцинира фалшиви заглавия и ги представи като истински новини. AI Gemini на Google също се провали с халюцинации, след като миналата година подаде готварска рецепта, съветваща сиренето върху пицата да се лепи с лепило и заяви, че геолозите препоръчват хората да ядат по един камък на ден.
Не е ясно какво причинява тези халюцинации. Съмненията на компютърните учени са насочени към големите езикови модели, които са основа на обучението на ИИ. Експерт казва пред ВВС, че проблемът е обект на активни изследвания, но признава, че дори разработчиците на системите с ИИ, често не знаят как всъщност работят и кои мисловни модели и механизми създават измислена информация.
От Noyb насочват вниманието към предишни търсения на Арве Холмен и допускат, че така натрупаните данни може да са повлияли на фалшивия портрет. Наблюденията им обаче показват, че в същия ден, отговаряйки на въпроси на Холмен, ChatGPT е създал „множество различни истории, всичките неверни“.
Според правозащитната група големите езикови модели са „черна кутия“, до която обаче OpenAI не позволяват достъп и дори не отговарят на такива заявки, така че е невъзможно да се разбере какви точно данни подбира и използва системата.
Тревожното е, че ИИ се изплъзва от контрол и създава фалшиви данни дори без предварителна зла умисъл - но с непредвидими последствия.
Още по темата във
facebookСподели тази статия в:

Комисията за защита на конкуренцията: Има само ползи от електронните ваучери за храна

И стоките втора употреба могат да бъдат върнати до 14 дни, ако са купени онлайн

Лондонското летище Хийтроу остава затворено и днес

В Русия се научиха да добиват редкоземни метали от фосфогипс

Bloomberg: САЩ почти спират участието си в групи, наблюдаващи санкциите срещу Русия

Tesla изтегля десетки хиляди Cybertruck

Норвежец подаде жалба срещу ChatGPT

Кой е най-скъпият химичен елемент на Земята?
