Стажант, не експерт: Как да използвате правилно изкуствен интелект в офиса
 Не трябва да възлагате на технологията важни решения, които да взема вместо вас, ако искате да избегнете халюцинации и грешки
Не трябва да възлагате на технологията важни решения, които да взема вместо вас, ако искате да избегнете халюцинации и грешки
&format=webp)
Съдебни документи, създадени с изкуствен интелект, все по-често съдържат фрапиращи грешки, като например позоваване на дела, които практически не съществуват, сигнализират представители на правната общност по цял свят.
Тази тревожна тенденция обаче може да се използва като отправна точка в стратегията за правилно използване на AI на работното място в помощ за задачи като проучвания и изготвяне на доклади.
Не е тайна, че учители, счетоводители и маркетинг експерти масово използват AI чатботове и асистенти, за да генерират идеи и да подобрят производителността си, но също откриват, че програмите правят грешки, отбелязва Euronews.
Френският правен анализатор и адвокат Деймиен Шарлот каталогизира поне 490 съдебни дела през последните шест месеца, които съдържат „халюцинации“ – отговори на AI, които съдържат невярна или подвеждаща информация. Темпото се ускорява, тъй като все повече хора използват изкуствения интелект, казва той. „Дори по-опитните могат да имат проблем с това. AI може да бъде благословия. Това е чудесно, но има и капани“.
Като старши научен сътрудник в HEC Paris, бизнес колеж в Париж, той създава база данни, проследяваща случаите, в които съдия постановява, че генеративен AI е произвел халюцинирано съдържание с измислена съдебна практика и неверни цитати. Повечето решения са от дела в САЩ, в които ищците са се представлявали сами, без адвокат. Макар че повечето съдии са издали предупреждения за грешките, някои са наложили глоби.
Но дори и известни компании са подавали проблемни правни документи. Федерален съдия в Колорадо постановява, че адвокат на MyPillow Inc. е подал писмена молба, съдържаща близо 30 неточни цитати, като част от дело за клевета срещу компанията и нейния основател Майкъл Линдъл.
Юридическата професия не е единствената, която се бори с недостатъците на изкуствения интелект. Служителите във всички сфери трябва да са предпазливи относно данните, които поверяват на технологията. Експерти в областта на трудовото право споделят опита си с грешките на изкуствения интелект и опасностите, които трябва да се избягват.
AI като стажант
Не се доверявайте на изкуствения интелект да взема решения вместо вас. Някои п третират тези инструменти като стажанти, на които възлагат задачи и чиято работа трябва да проверят.
„Мислете за изкуствения интелект като за средство за подобряване на работния ви процес“, казва Мария Флин, главен изпълнителен директор на Jobs for the Future, неправителствена организация, фокусирана върху развитието на работната сила.
Той може да действа като асистент за задачи като изготвяне на имейл или проучване на маршрут за пътуване, но не го възприемайте като заместител, който може да свърши цялата работа, допълва тя.
При подготовката за среща Флин експериментира с вътрешен AI инструмент, като го моли да предложи въпроси за обсъждане въз основа на статия, която споделя с екипа. „Някои от предложените въпроси не бяха подходящи за нашата компания, така че му дадох обратна връзка и той се върна с пет много добри въпроса“.
Проверявайте
Флин също така открива проблеми в резултатите от AI инструмента, който все още е в пилотна фаза. Веднъж го моли да събере информация за работата, която нейната компания извършва в различни щати. Но AI инструментът третира проектите като еднакви. „В този случай нашият AI инструмент не беше в състояние да различи разликата между нещо, което е било предложено, и нещо, което е било завършено“, допълва Флин.
Тя разполага с институционално познание, за да разпознае грешките. „Ако сте нови в дадена компания, попитайте колегите дали резултатите им изглеждат точни“, предлага Флин.
Макар че изкуственият интелект може да помогне при брейнсторминг, да разчитате на него за фактическа информация е рисковано. Отделете време, за да проверите точността на това, което генерира, дори да е изкушаващо да пропуснете тази стъпка.
„Хората се доверяват, защото звучи правдоподобно и удобно“, казва Джъстин Даниелс, адвокат от Атланта и акционер в кантората Baker Donelson. „Трябва да се върна и да проверя всички цитати, или когато разглеждам договор, който AI е обобщил, трябва да прочета какво пише в него, което е малко неудобно и отнема време, но трябва да се направи. Колкото и да мислите, че AI може да замести това, не може.“, съветва адвокатът.
Бъдете внимателни със записките
Може да е изкушаващо да използвате AI за водене на записки по време на срещи. Някои инструменти генерират полезни обобщения и очертават стъпки за действие въз основа на казаното.
Но много юрисдикции изискват съгласие на участниците преди записване на разговори. Преди да използвате AI, обмислете дали разговорът трябва да остане поверителен и конфиденциален, препоръчва Даниел Кейс, партньор в адвокатската кантора Fisher Phillips в Чикаго.
Консултирайте се с колеги от правния отдел или човешки ресурси, преди да използвате записващо устройство в ситуации с висок риск, като оценки на представянето или обсъждания на стратегии.
Защита на поверителна информация
Ако използвате безплатни AI инструменти за изготвяне на меморандум или маркетингова кампания, не им предоставяйте идентифицираща информация или корпоративни тайни. След като качите тази информация, е възможно други хора, които използват същия инструмент, да я открият.
Това се дължи на факта, че когато други задават въпроси на AI инструмента, той търси наличната информация, включително подробностите, които сте разкрили, докато изготвя отговора си, обяснява Флин.
„Той не прави разлика дали нещо е публично или лично“.
Обучайвате се
Ако вашият работодател не предлага обучение по AI, опитайте да експериментирате с безплатни инструменти като ChatGPT или Microsoft Copilot. Някои университети и технологични компании предлагат курсове, които могат да помогнат да разберете как работи AI и как да е полезен.
Въпреки потенциалните проблеми с инструментите, научаването как работят може да бъде от полза в бъдеще.
„Най-голямата потенциална опасност в това как да се използва AI е да не се научим да го използваме изобщо“, казва Флин. „Всички ще трябва да овладеем AI и да предприемем първите стъпки за изграждане на познания, грамотност и увереност в работата с него, което ще е от критично значение“, допълва експертът.
)








&format=webp)
&format=webp)
&format=webp)
&format=webp)
&format=webp)
&format=webp)
&format=webp)