Цель статьи – проанализировать, как известные учёные оценивают потенциал долгосрочных рисков искусственного интеллекта (ИИ). Рассматривается вклад в развитие технологий генеративного ИИ, а также выступления за безопасный ИИ известного канадско-британского учёного, лауреата Нобелевской премии 2024 года Джеффри Хинтона и его учеников и коллег в области машинного обучения, разделяющих его идеи или, наоборот, возражающих ему (И. Суцкевер, Й. Бенджио, Я. Лекун). Речь идёт о предупреждениях учёных, разработчиков, ИТ-предпринимателей (Дж. Хинтон, Й. Бенджио, И. Суцкевер, С. Баладжи, И. Маск и др.) о неконтролируемых последствиях конкурентной гонки между высокотехнологическими компаниями «Опен-эй-ай» (OpenAI), «Гугл» (Google), «Антропик» (Anthropic), «Майкрософт» (Microsoft) и др., об их выступлениях за новые подходы к регулированию в этой области. Показывается, как исследователи вынуждены входить в противоречие с интересами технологических корпораций для того, чтобы донести до широких кругов общественности информацию о рисках ИИ.
Индексирование
Scopus
Crossref
Высшая аттестационная комиссия
При Министерстве образования и науки Российской Федерации