«Опасная штука»: Ашманов раскритиковал идею массового внедрения искусственного интеллекта
Накануне в Сети появилась новость, что нейросеть GPT-3 неделю отвечала на вопросы пользователей Reddit, притворяясь человеком.
Также выяснилось, что в Австралии искусственный интеллект (ИИ) будет предлагать парам варианты раздела имущества.
Истории вызвали широкий общественный резонанс.
В эфире Радио «Комсомольская правда» (radiokp.ru) ситуацию прокомментировал генеральный директор технологической компании «Нейросети Ашманова» Станислав Ашманов.
Эксперт отметил, что грань между людьми и машинами не сможет стереться.
«Искусственный интеллект — это один из примеров автоматизации. Он не способен решать моральные дилеммы. И всякие попытки вешать на него решение задач морального толка, на мой взгляд, провалятся и должны быть категорически запрещены», — заявил он.
Специалист не стал отрицать, что некоторые процессы можно автоматизировать. Например, расчет налогового вычета. При этом часть задач обязательно должен выполнять человек.
«Идет речь о том, как организовать походы к детям и разделения опекунства через бота. На мой взгляд, штука чрезвычайно опасная и нехорошая», — поделился Ашманов.
Также эксперт отметил, что в истории с Reddit никаких нарушений прав граждан, поскольку для этого не существует соответствующих законов.