42% от IT специалистите използват AI, за да си отговорят на въпроси свързани с писане на код. През 2023 година австралийският медиен конгломерат News Corp Australia призна, че използва изкуствен интелект, за да генерира 3000 статии седмично. В същото време, ново проучване на Reuters Institute показва, че над 53% от хората, които четат новини в САЩ и 63% от тези във Великобритания, не се чувстват комфортно да четат новини, генерирани от изкуствен интелект. Ето какво значи това...
Изводът е безспорен – AI е тук, за да остане, но е далеч от това да бъде автономен. Изключително далеч. Именно това споделя и Ян Лекун – един от най-влиятелните изследователи и учени в областта на изкуствения интелект и ръководител на отдела за разработка на AI в Meta. В свое изявление, той очертава четирите основни ограничения пред изкуствения интелект, коренящи се в основните му разлики с човешкия. Това са именно разумът, умението да планираме, да помним и да си взаимодействаме с физическия свят.
Липсата на когнитивни способности, отбелязва Лекун, е в основата на това, че AI продължава да е по-ограничен и склонен към грешки, сравнен с човешкия интелект. Той все още е способен да изпълнява главно базови задачи.
Един от най-ярките примери за това е склонността на големите езикови модели (LLM) като ChatGPT, Gemini и LLaMa да „халюцинират“. Всеки, който някога си е служил с подобен инструмент, вероятно в някакъв момент е попадал на безсмислен или напълно грешен отговор. Такива отговори обикновено се получават, когато не са базирани на данните, чрез които моделът е бил „трениран“, или не следват познат модел. Халюцинациите са плод на пристрастност на информацията (bias), неточност на използваните за обучение данни, липсващи данни и самата сложност на модела.
Цялата статия може да прочетете на ECONOMIC.BG