За какво последно помолихте изкуствения интелект?

Може би за структура на есе, отговор на труден въпрос, задълбочен анализ на огромно количество данни или пък проверка за грешки в мотивационно писмо за желана позиция. 

Някои експерти се опасяват, че възлагането на подобни задачи означава, че мозъкът работи по-малко – и дори може да навреди на уменията за критично мислене и решаване на проблеми, пише BBC. 

По-рано тази година изследване на Масачузетския технологичен институт (MIT) показа, че когато хората използват ChatGPT за писане на есета, мозъкът им буквално „мързелува“. Учените са установили, че в този случай зоните в мозъка, отговорни за мисленето и обработката на информация, са много по-слабо активни.

Участниците, доверили се на AI, са имали по-големи затруднения да цитират собствените си есета в сравнение с хората, които не са използвали технологията.

Изследователите отбелязват, че проучването им разкрива „належащата необходимост да се изследва възможен спад в уменията за учене“.

Всички 54 участници са били набрани от MIT и близки университети. Мозъчната им активност е била регистрирана чрез електроенцефалография (ЕЕГ), при която върху скалпа се поставят електроди.

В своите заявки участниците са включвали задачи като обобщаване на теми за есета, търсене на източници и редакция на граматиката и стила. Изкуственият интелект е бил използван и за генериране на идеи, макар някои потребители да смятат резултатите в това направление за незадоволителни.

AI прави намирането на отговори твърде лесно

Съвместно проучване на университета „Карнеги Мелън“ и технологичния гигант Microsoft разкрива, че уменията за самостоятелно справяне със сложни казуси могат сериозно да отслабнат, ако потребителите развият прекомерна зависимост от изкуствения интелект. 

В рамките на изследването са анкетирани 319 офис служители, прилагащи AI инструменти в ежедневната си работа, като фокусът е бил върху начина, по който те използват критично мислене в процеса. Чрез анализ на 900 конкретни примера за задачи учените установяват директна връзка между доверието в технологията и интелектуалните усилия. Колкото по-високо е доверието в способността на алгоритъма да изпълни дадена задача, толкова по-ниска е склонността на служителите да подлагат резултатите на критичен анализ.

Авторите на доклада предупреждават, че макар генеративният AI да повишава непосредствената ефективност, той може да се превърне в бариера пред активното ангажиране с работните процеси. Това крие риск от дългосрочна свръхзависимост и постепенно заличаване на способността за автономно вземане на решения. 

Сходни тенденции се забелязват и в образователния сектор според данни на Oxford University Press от октомври миналата година. Проучването сред ученици във Великобритания сочи, че 60% от тях отчитат негативно влияние на AI върху собствените си академични умения.

Въпреки тези притеснения, ситуацията далеч не е еднозначна. Д-р Александра Томеску, специалист по изкуствен интелект в OUP, казва, че девет от десет ученици виждат и ползи. Те твърдят, че технологията им е помогнала да развият поне едно важно умение, било то в сферата на креативността или подготовката за изпити. Същевременно около една четвърт от децата признават, че използването на подобни инструменти е направило училищните задачи „твърде лесни“ за тях. Според д-р Томеску това подчертава необходимостта от по-ясни насоки за правилното приложение на технологията в учебния процес.

На този фон компании като OpenAI се опитват да подпомогнат потребителите чрез публикуването на специализирани набори от промптове, предназначени да оптимизират работата на учениците. Проф. Уейн Холмс от University College London обаче смята, че тези мерки са недостатъчни. Той настоява за мащабни и независими академични изследвания върху ефектите на AI инструментите, преди тяхното масово навлизане в образованието да бъде официално насърчавано. 

„Към днешна дата няма независими, мащабни доказателства за ефективността на тези инструменти в образованието, за тяхната безопасност или дори за твърдението, че имат положително въздействие“, обяснява той пред BBC. 

По-добри резултати, но по-слабо аналитично мислене?

Професор Холмс насочва вниманието към процеса на т.нар. когнитивна атрофия – състояние, при което човешките способности и умения отслабват вследствие на системно използване на изкуствен интелект. Той посочва, че този проблем вече се наблюдава при рентгенолози, които разчитат на AI инструменти за интерпретация на снимки преди поставяне на диагноза. 

Изследване на Харвардското медицинско училище от миналата година потвърждава противоречивия характер на използването на AI: докато помощта от технологията е подобрила представянето на едни лекари, тя е навредила на други по причини, които науката все още не е изяснила напълно. В резултат на това авторите на проучването призовават за задълбочено изследване на взаимодействието между човека и технологиите, за да се открият методи, които „подсилват човешкото представяне, вместо да му вредят“.

Опасенията на проф. Холмс са свързани най-вече с това, че учениците и студентите могат да развият опасна зависимост от AI и така да пропуснат развитието на фундаментални умения. Едно есе може да получи по-висока оценка благодарение на алгоритмите, но това не гарантира реално усвояване на знанията. Както обобщава самият професор: „Резултатите им са по-добри, но всъщност аналитичното им мислене е по-слабо.“

От друга страна, Джейна Девани, ръководител на международното образование в OpenAI, подчертава, че компанията е напълно наясно с тези рискове. „Определено не смятаме, че студентите трябва да възлагат работата си на ChatGPT“, коментира тя.

Според нея идеалното приложение на технологията е в ролята на наставник. Като пример тя дава „режима за учене“, в който студентът води диалог с чатбота, за да разложи сложен въпрос на части и да го разбере по-добре. Този модел е особено полезен в ситуации, в които преподавателят не е на разположение. Девани вярва, че потенциалът на ChatGPT да ускори учебния процес съществува, стига той да се използва целенасочено.

Проф. Холмс обаче настоява, че всеки потребител в образователната система трябва да е наясно с логиката на тези инструменти и начина, по който компаниите обработват техните данни. Той е категоричен, че резултатите винаги трябва да се проверяват критично, тъй като това не е просто поредната по-съвършена версия на калкулатора. 

„Никога не забранявам на студентите си да използват изкуствен интелект.  Но им казвам, че трябва да разбират всички тези различни аспекти на технологията, за да могат да взимат информирани решения“, завършва той.