col sm md lg xl (...)
Не любите мира, ни яже в мире...
(1 Ин. 2:15)
Ветрово

Разработчик ИИ рассказал, когда эта технология может убить человечество

Профессор Хинтон считает, что темпы развития искусственного интеллекта слишком быстрые, и призвал к государственному регулированию технологии

Джеффри Хинтон. Фотография: www.theguardian.com

Британо-канадский ученый-компьютерщик, который был удостоен Нобелевской премии по физике в этом году, Джеффри Хинтон, считает, что искусственный интеллект может через 30 лет уничтожить человечество.

Джеффри Хинтон, которого часто называют «крестным отцом» искусственного интеллекта заявил, что вероятность того, что ИИ приведет к вымиранию человечества через три десятилетия, составляет от 10 до 20 %, поскольку «изменения происходят быстро».

Ранее Хинтон говорил, что вероятность того, что технология приведет к катастрофическому исходу для человечества, составляет 10 %.

Отвечая на вопрос в программе «Today» на радио BBC 4, не изменил ли он свой анализ потенциального ИИ-апокалипсиса и вероятность его наступления — один к десяти, он сказал: «Не совсем, от 10 до 20 %».

Реагируя на слова Хинтона приглашенный редактор «Today» Саджид Джавид, сказать: «Вы идете вверх», на что Хинтон ответил: «Видите ли, нам еще никогда не приходилось иметь дело с вещами более умными, чем мы сами».

Он добавил: «Сколько вы знаете примеров, когда более разумное существо контролируется менее разумным? Таких примеров очень мало. Есть мать и ребенок. Эволюция приложила немало усилий, чтобы позволить ребенку контролировать мать, но это единственный пример, который я знаю».

По мнению Хинтона, люди будут похожи на малышей по сравнению с возможностями мощных систем искусственного интеллекта.

«Мне нравится думать об этом так: представьте себя и трехлетнего ребенка. Мы будем трехлетними детьми», – сказал он.

В прошлом году Хинтон получил известность, уволившись с работы в Google, чтобы более открыто говорить о рисках, связанных с неограниченным развитием ИИ.

По его мнению, «плохие игроки» будут использовать эту технологию для причинения вреда другим людям.

Одна из основных проблем, волнующих сторонников безопасности ИИ, заключается в том, что создание искусственного интеллекта общего назначения, или систем, которые умнее человека, может привести к тому, что технология будет представлять собой экзистенциальную угрозу, уходя от человеческого контроля.

Хинтон сказал, что темпы развития «очень, очень быстрые, гораздо быстрее, чем я ожидал», и призвал к государственному регулированию технологии.

«Меня беспокоит то, что невидимая рука не сможет обеспечить нам безопасность. Поэтому, если оставить все на усмотрение крупных компаний, они не смогут обеспечить безопасную разработку», – сказал он.

«Единственное, что может заставить эти крупные компании проводить больше исследований в области безопасности, – это государственное регулирование», — считает профессор.

По материалам «Союза православных журналистов»
28 декабря 2024

Заметки на полях

  • Санкт-Петербург, Сестрорецк

    Доигрались…
    Процесс пошел… Остановить его может только Господь Бог!
    Слова надежды на государственное регулирование звучат наивно в устах этого Нобелевского лауреата…

  • Псков

    Неизбежное самоуничтожение. Прелесть в лучшем случае слишком поздно просыпается. А нам,верующим, ей гряди Господи, ни очень-то и скучать будем по месту изгнания. Лишь бы быть с Богом.

Уважаемые читатели, прежде чем оставить отзыв под любым материалом на сайте «Ветрово», обратите внимание на эпиграф на главной странице. Не нужно вопреки словам евангелиста Иоанна склонять других читателей к дружбе с мiром, которая есть вражда на Бога. Мы боремся с грехом и без­нрав­ствен­ностью, с тем, что ведёт к погибели души. Если для кого-то безобразие и безнравственность стали нормой, то он ошибся дверью.

Месяцеслов

Стихотворение о годовом круге, с цветными иллюстрациями

От сердца к сердцу

Новый поэтический сборник иеромонаха Романа

Где найти новые книги отца Романа

Список магазинов и церковных лавок
// // //Ftakar - disabled. // // // // // // // // // // // // // // // //