Недавно Элиезер Юдковский опубликовал диалог с Ричардом Нго из команды OpenAI (проект, которому мы о...

10390
Недавно Элиезер Юдковский опубликовал диалог с Ричардом Нго из команды OpenAI (проект, которому мы обязаны мощнейшей нейросети GPT-3). Тема обсуждения – риски, связанные с появлением сверхмощного ИИ.

Как многие знают, Юдковский – один из главных апологетов позиции, согласно которой нам нужно направлять намного больше ресурсов на обеспечение безопасности ИИ. Он убеждён, что человечество может быть уничтожено сверхсильным ИИ, который получит власть над миром и сможет делать с людьми что угодно (намеренно или по ошибке).

Скотт Александер (известный рационалист, автор блогов Slate Star Codex и Astral Codex Ten) сделал саммари главных тезисов дискуссии. Очень познавательно, почитайте. Скоро сделаю ролик на тему.

astralcodexten.substack.com/p/practically-a-book-review-yudkowsky

#ИИ_мастрид

Добавить комментарий

Вы не авторизованы! Войти или зарегистрироваться?