Более половины из 738 опрошенных ученых в области искусственного интеллекта утверждают, что вероятность уничтожения человеческой цивилизации из-за ИИ в ближайшие сто лет превышает 5%.
Руководители исследовательских лабораторий оценивают этот риск даже выше — от 10% до 20%.
Эти цифры в 50-200 тысяч раз превышают допустимые уровни рисков для медицинских устройств или атомных электростанций.
В соответствии с действующими стандартами оценки рисков, если вероятность негативных последствий максимально превышает установленные пороги, технологии не должны использоваться.Например, в фармацевтике существуют четкие вычисления ожидаемой смертности. Если риск от препарата превышает допустимое значение в 0,01% летальных исходов в год (10^-4), его производство запрещается.
Эксперты подчеркивают проблему недооценки так называемых «диких рисков» — непредсказуемых ситуаций, которые не подчиняются нормальному распределению вероятностей. Это вызывает вопросы: является ли такое занижение ошибкой или намеренным игнорированием возможных последствий?
В истории есть примеры, когда индустрии занижали негативные последствия своей продукции. До 1950-х годов табачные компании и некоторые врачи утверждали, что сигареты могут быть полезными, несмотря на имеющиеся доказательства их вреда.
Некоторые ведущие специалисты в области ИИ делают неоднозначные заявления. Например, Илон Маск в 2023 году описывал искусственный интеллект как «божье творение». Сооснователь Google Ларри Пейдж также выражал стремление создать «цифрового бога» с помощью ИИ.
Специалисты предупреждают о потенциальных рисках концентрации таких технологий в руках амбициозных людей с общими целями и значительными ресурсами.
Разрабатываемые квантовые и ДНК-компьютеры могут открыть новые горизонты для создания ИИ с непредсказуемыми для человечества последствиями.
Свежие комментарии