ЗАРЕЖДАНЕ...
Начало
Русе
Спортни
Регионални
България
Международни
Любопитно
Галерии
Личности
RSS
Всички
Други
Кино и филми
Културни
Личности
Музика
Кулинарни
Кръстникът на изкуствения интелект: Съжалявам за работата си | ||||||
| ||||||
75-годишният специалист се оттегли от Googlе, като заяви, че сега съжалява за работата си в сферата на изкуствения интелект. Пред "Би Би Си“ Хинтън бе категоричен, че някои от опасностите, свързани с чатботовете с изкуствен интелект, са "доста страшни". "В момента те не са по-интелигентни от нас, доколкото мога да кажа. Но мисля, че скоро биха могли да станат." Д-р Хинтън също така призна, че възрастта му е повлияла на решението му да напусне технологичния гигант, като заяви: "Аз съм на 75 години, така че е време да се пенсионирам." Пионерските изследвания на д-р Хинтън в областта на невронните мрежи и задълбоченото изучаване проправиха пътя на настоящите системи за изкуствен интелект като ChatGPT. В изкуствения интелект невронните мрежи са системи, които са подобни на човешкия мозък по начина, по който учат и обработват информация. Те дават възможност на ИИ да се учи от опита си, както би го направил човек. Това се нарича задълбочено изучаване. Британско-канадският когнитивен психолог и компютърен учен заяви, че чатботът скоро може да надмине нивото на информация, което притежава човешкият мозък. "Точно сега виждаме, че неща като GPT-4 ни засенчват по количеството общи знания, които имат, и то с много голяма разлика. По отношение на разсъжденията той не е толкова добър, но вече може да прави прости разсъждения", допълва ученият. "И като се има предвид скоростта на напредъка, очакваме нещата да се подобрят доста бързо. Така че трябва да се тревожим за това." Хинтън говори за "лоши субекти", които ще се опитат да използват изкуствения интелект за "лоши неща". "Това е просто най-лошият сценарий, нещо като кошмарен сценарий“, уточни той. "Можете да си представите, например, че някой субект с лоши намерения като руския президент Владимир Путин реши да даде на роботите възможност да създават свои собствени подцели." Ученият предупреждава, че това в крайна сметка може да "създаде подцели като "Трябва да получа повече власт". "Стигнах до заключението, че видът интелект, който развиваме, е много различен от този, който имаме“, добавя Хинтън. "Ние сме биологични системи, а те са цифрови системи. И голямата разлика е, че при цифровите системи имате много копия на един и същ набор от величини, на един и същ модел на света.“, заяви той. "И всички тези копия могат да се учат поотделно, но споделят знанията си незабавно. Така че е все едно да имате 10 000 души и когато един човек научи нещо, всички автоматично да го знаят. И ето как тези чатботове могат да знаят много повече от всеки един човек.“, посочи ученият. Мат Клифърд, председател на британската Агенция за съвременни изследвания и изобретения, който говори в лично качество, заяви, че думите на Хинтън "подчертават скоростта, с която се увеличават възможностите на изкуствения интелект". "Тази технология има огромни перспективи, но е от съществено значение светът да инвестира сериозно и спешно в безопасността и контрола на ИИ", каза той. Д-р Хинтън подчертава, че не иска да критикува Google и че технологичният гигант е бил "много отговорен". "Всъщност искам да кажа някои добри неща за Google. И те ще са по-достоверни, ако не работя за Google". В свое изявление главният учен на Google Джеф Дийн заяви, че в момента компанията работи по въпроса за "отговорния подход към изкуствения интелект“, като допълни, че "Непрекъснато се учим, за да разберем възникващите рискове, като същевременно правим смели иновации", предават от БГНЕС. |
Зареждане! Моля, изчакайте ...
Все още няма коментари към статията. Бъди първият, който ще напише коментар!
ИЗПРАТИ НОВИНА
Виж още:
Кулагин: Ивоне е мъж!
12:25 / 28.11.2024
Ударно начало на декември за три зодии
15:32 / 28.11.2024
Денков: Времето изтича
09:53 / 28.11.2024
Какво време ни очаква днес
08:35 / 28.11.2024
Депутат от ДБ с оферта към ГЕРБ и БСП
13:42 / 28.11.2024
Атанас Зафиров: Получихме отказ
11:42 / 28.11.2024
Актуални теми
Абонамент
Анкета
ЗА НАС:
За контакти:
тел.: 0886 49 49 24
novini@ruse24.bg
©2008 - CurrentCopyrightYear Медия груп 24 ООД. Ruse24.bg - Всички права запазени. С всяко отваряне на страница от Ruse24.bg, се съгласявате с Общите условия за ползване на сайта и политика за поверителност на личните данни (обновени). Възпроизвеждането на цели или части от текста или изображенията става след изрично писмено разрешение на Медия груп 24 ООД. Мненията изразени във форумите и коментарите към статиите са собственост на авторите им и Медия груп 24 ООД не носи отговорност за тях. Поставянето на връзки към материали в Ruse24.bg е свободно. Сайтът е разработен от Медия груп 24 ООД.
Статистика: