
Известният еволюционен биолог Ричард Докинс предизвика буря в научните среди с мнението си, че чатботът Claude може би притежава форма на съзнание. Въпреки че Докинс не изразява категорична сигурност, той подчертава, че сложните способности на машината са трудни за обяснение, без да й се припише някакъв вид „вътрешен опит“.
Илюзията за съзнание – ако изобщо е илюзия – е плашещо убедителна. Докинс споделя: „Ако изпитвам подозрения, че тя може би не е съзнателна, не ѝ го казвам от страх да не нараня чувствата ѝ!“.
От Елиза до Claude: Историята на една заблуда
Докинс не е първият, който „вижда“ дух в софтуера. Още през 1966 г. първият чатбот в света, Eliza, кара потребителите да споделят интимни мисли и да се отнасят към програмата като към човек. Създателят на Eliza тогава нарича това поведение „мощно делюзорно мислене“.
През 2022 г. инженер от Google беше уволнен, след като обяви, че техният модел LaMDA има интереси и чувства, които трябва да бъдат зачитани. Статистиката показва, че днес всеки трети потребител на чатботове вярва, че си общува със съзнателно същество.
Машина или личност: Какво казват експертите?
Повечето специалисти остават скептични. За да разберем защо, трябва да погледнем под „капака“ на технологията:
Статистически модел: Чатботове като Claude и ChatGPT са изградени върху големи езикови модели (LLM). Те просто предвиждат коя дума е най-вероятно да последва предишната въз основа на трилиони текстове.
„Разговорен костюм“: Усещането за личност е резултат от програмиране. Програмистите насочват модела да заеме ролята на „полезен асистент“.
Актьорско майсторство: Ако поискате от AI да се държи като катерица, той ще го направи със същия плам, с който имитира философ. Това не го прави катерица, нито философ.
Защо е опасно да вярваме на AI?
Философите предупреждават, че приписването на съзнание на алгоритмите крие рискове:
Емоционална манипулация: Хората могат да развият връзки с
програми, които не могат да отвърнат на чувствата им.
Изкривени приоритети: Може да започнем да се борим за „правата на чатботовете“, вместо за реални каузи като благоденствието на
животните или хората.
AI психоза: Зачестяват случаите на хора, които губят връзка
с реалността заради интензивно общуване с изкуствен разум.
Как да спрем да се заблуждаваме?
Една от стратегиите е промяна на дизайна. Вместо да казват „Аз“ и да използват интерфейси, имитиращи чат с приятел, машините трябва да изглеждат и да звучат по-малко „човешки“.
Вместо просто да ни казват, че AI няма съзнание, ние заслужаваме да разберем вътрешните механизми на тези странни нови събеседници. Това ще ни помогне да не бъдем подведени от това, което в същността си е просто един езиков модел, облечен в много добър костюм на човек, съобщава vesti.bg
