«Опасная штука»: Ашманов раскритиковал идею массового внедрения искусственного интеллекта

Ашманов об искусственном интеллекте: «Он не способен решать дилеммы»
Генеральный директор технологической компании заверил, что грань между людьми и машинами не сможет стереться.

Накануне в Сети появилась новость, что нейросеть GPT-3 неделю отвечала на вопросы пользователей Reddit, притворяясь человеком.

Также выяснилось, что в Австралии искусственный интеллект (ИИ) будет предлагать парам варианты раздела имущества.

Истории вызвали широкий общественный резонанс.

В эфире Радио «Комсомольская правда» (radiokp.ru) ситуацию прокомментировал генеральный директор технологической компании «Нейросети Ашманова» Станислав Ашманов.

Эксперт отметил, что грань между людьми и машинами не сможет стереться.

«Искусственный интеллект — это один из примеров автоматизации. Он не способен решать моральные дилеммы. И всякие попытки вешать на него решение задач морального толка, на мой взгляд, провалятся и должны быть категорически запрещены», — заявил он.

Специалист не стал отрицать, что некоторые процессы можно автоматизировать. Например, расчет налогового вычета. При этом часть задач обязательно должен выполнять человек.

«Идет речь о том, как организовать походы к детям и разделения опекунства через бота. На мой взгляд, штука чрезвычайно опасная и нехорошая», — поделился Ашманов.

Также эксперт отметил, что в истории с Reddit никаких нарушений прав граждан, поскольку для этого не существует соответствующих законов.

Post persons