Новини
Спорт
Справочник
Обяви
Вход
close




ЗАРЕЖДАНЕ...
Начало
Русе
Спортни
Регионални
България
Международни
Любопитно
Галерии
Личности
RSS
Всички
Други
Кино и филми
Културни
Личности
Музика
Кулинарни
Какво означават ChatGPT и Генеративният изкуствен интелект за науката
Автор: Рени Томович 11:41 / 22.02.2023Коментари (0)659
©
Чатботовете, създадени на базата на изкуствения интелект, вече са въвлечени в науката, пише Nature. Те могат да пишат компютърни кодове, да намират грешки в уравнения и дори да пишат научни статии срещу скромна такса. Но наистина ли тази умна технология е толкова добра и ефективна?

Последните постижения в областта на изкуствения интелект едновременно зарадваха и разтревожиха изследователите.

През декември изчислителните биолози Кейси Грийн и Милтън Пивидори извършиха необичаен експеримент: те помолиха асистент (не учен) да им помогне да подобрят три от техните научни статии. Оказа се, че трудолюбивият им асистент предлага корекции на отделни подраздели за секунди, а прегледът на целия ръкопис отнема около пет минути. В една статия по биология той дори забеляза грешка в препратката към уравнението. Експериментът не винаги вървеше гладко, но след редактирането ръкописите станаха "по-четливи“ и асистентът поиска много скромна такса - по-малко от 50 цента на документ.

Този асистент, както съобщават Грийн и Пивидори, не е човек, а алгоритъм с изкуствен интелект (AI), наречен GPT-3, пуснат за първи път през 2020 г. Това е един от най-горещите генеративни AI инструменти в обвивката на чатбот, който създава обмислено написани текстове във всеки жанр - било то проза, поезия, компютърен код или, в случая на нашите изследователи, редактиране на научни статии.

Може би най-известният от тези инструменти (известен също като "големи езикови модели" или LLM) е ChatGPT, безплатна версия на GPT-3, пусната миналия ноември, която стана известна с лесната си достъпност. Има и други генеративни AI инструменти за създаване изображения или звуци.

"Наистина съм впечатлен", казва Пивидори от Университета на Пенсилвания във Филаделфия. "Това ще улесни учените и ще повиши продуктивността на нашите изследвания." Колегите му казват, че редовно използват LLM не само за редактиране на ръкописи, но и за писане или преглед на код – и дори за мозъчна атака. "Използвам LLM всеки ден“, каза Хафщайн Ейнарсон, компютърен учен в Исландския университет в Рейкявик. Той започна с GPT-3, но оттогава премина към ChatGPT, който му помага да проектира слайдове за презентации, викторини за студенти и дори да преработи дисертации в научна статия. "Много хора го използват като цифров секретар или асистент“, казва Ейнарсон.

Големите езикови модели или LLM се използват в търсачки, асистенти за кодиране и дори чатботове, които говорят с "колеги“ от други компании, за да получат отстъпка за определени продукти. Базираната в Сан Франциско OpenAI определи месечна абонаментна цена от , обещавайки на потребителите по-бързо време за реакция и приоритетен достъп до нови функции (въпреки че пробната версия все още е достъпна безплатно). А технологичният гигант Microsoft не само вече инвестира в OpenAI, но и обяви нови инвестиции през януари - по предварителни данни за десет милиарда долара. Очаква се LLM да се слеят в софтуер за текстообработка и обработка на данни. Днешните инструменти са по същество генериращ AI в начален стадий, но в бъдеще той със сигурност ще стане наистина повсеместен в нашето общество.

В същото време LLM вече са станали причина за безпокойство: първо, досега те все още са много фалшиви, и второ, хората могат да предадат текста, създаден с помощта на AI, като свой собствен. В отговор на нашите запитвания относно потенциалното използване на чатботове като ChatGPT, изследователите изразиха загриженост и загриженост. "Ако смятате, че тази технология има революционен потенциал, тогава мисля, че можете да започнете да се изнервяте“, казва Кейси Грийн от Медицинския факултет към Университета на Колорадо в Аврора. Според изследователите много в спецификата на работата на чатботовете с AI ще зависи от бъдещи правила и препоръки.

Свободен, но не безпогрешен

Някои учени смятат, че LLM обикновено ускоряват задачи като писане на документи или обосноваване на безвъзмездни средства - разбира се, под контрола на хората. "Учените вече няма да прекарват часове в писане на дълги предговори за кандидатстване за грант“, казва Алмира Османович Тунстрьом, невролог в университетската болница Sahlgreni в Гьотеборг, Швеция, съавтор на експериментален ръкопис, използващ GPT-3. "Те ще прехвърлят тази задача на специални системи.“

Том Тумиел, изследователски инженер в базираната в Лондон софтуерна консултантска фирма InstaDeep, казва, че използва LLM всеки ден като асистент по кодиране. "Това е като Stack Overflow, само че е по-добро“, казва той, имайки предвид популярния сайт, където програмистите отговарят на въпроси един на друг.

Но изследователите подчертават, че на LLM все още не може да се разчита безусловно: понякога те грешат. "Следователно, за образователни цели, тези системи трябва да се използват с повишено внимание", казва Османович-Тунстрем.

Тази ненадеждност е следствие от самото LLM устройство. ChatGPT и конкурентните програми научават статистически модели на езика от огромни корпуси от текстове и може да има неистина, предразсъдъци или остаряла информация. И при поискване (например в отговор на ясно формулираната молба на Грийн и Пивидори за пренаписване на някои части от ръкописите), те просто издават дума по дума стилистично правдоподобно продължение.

В резултат на това LLM лесно възпроизвеждат съществуващи грешки и могат да бъдат подвеждащи - особено по технически теми, за които им липсват данни за обучение. Освен това LLMs не са в състояние да идентифицират произхода на своите данни и когато бъдат помолени да напишат научна статия, те лесно измислят фиктивни цитати. "Не можете да разчитате на тях за фактическа точност и референтна надеждност“, отбеляза януарска редакционна статия на ChatGPT в Nature Machine Intelligence.

С тези предупреждения ChatGPT и други LLMs могат да бъдат полезен инструмент за опитни изследователи, които могат да идентифицират проблемите и сами да проверят правилността на отговорите, независимо дали става въпрос за научно обяснение или предложен компютърен код.

Поправими ли са недостатъците?

Някои инструменти за търсене, като Elicit, който е пригоден за изследователи, решават проблеми с приписването на LLM, като първо пренасочват заявки към подходяща литература и след това показват резюме за всяка връзка (въпреки че LLM може да обобщи неправилно един документ).

Компаниите за развитие на LLM са наясно с проблемите. Миналия септември дъщерното дружество на Google DeepMind публикува статия за така наречения "разговорен агент“, наречен Sparrow. Както главният изпълнителен директор и съосновател Демис Хасабис каза по-късно пред списание Time, бета тестването ще започне тази година. Списанието съобщи, че Google по-специално финализира функции като възможността за цитиране на източници. Други конкуренти - като Anthropic - твърдят, че някои от проблемите на ChatGPT вече са решени (Anthropic, OpenAI и DeepMind отказаха коментар за тази статия).






Зареждане! Моля, изчакайте ...

Все още няма коментари към статията. Бъди първият, който ще напише коментар!
ИЗПРАТИ НОВИНА
Виж още:
Актуални теми
Античен град Хераклея Синтика разкрива още от тайните си
Бюджет 2025
Влизането на България в Шенген
Почина Лиъм Пейн
51-ото Народно събрание
назад 1 2 3 4 5 напред
Абонамент
Абонирайте се за mail бюлетина ни !
Абонирайте се за нашия e-mail и ще получавате на личната си поща информация за случващото се в Русе и региона.
e-mail:
Анкета
Ще почивате ли идната зима?
Да, в България
Да, в чужбина
Не
Не съм решил/а още

РАЗДЕЛИ:
Новини
Спорт
Справочник
Обяви
Потребители
ГРАДОВЕ:
Пловдив
Варна
Бургас
Русе
Благоевград
ЗА НАС:

За контакти:

тел.: 0886 49 49 24

novini@ruse24.bg

За реклама:

тел.: 0887 45 24 24

office@mg24.bg

Екип
Правила
Статистика: