«А вместо головы - искусственный интеллект»: как будет учиться новое поколение под присмотром нейросетей
М. Баченина:
- Здравствуйте, друзья. В эфире «Родительский вопрос». У микрофона Мария Баченина и Александр Милкус. И сегодня у нас в гостях кандидат философских наук, заведующая кафедрой философии образования МГУ Елена Брызгалина. Мы сегодня снова будем говорить про искусственный интеллект. Но ведь огромное количество сторон у этой монеты, с которых можно разглядывать искусственный интеллект. Польза или вред, этика – не этике? И так далее. Дорожная карта. Елена Владимировна, какой первый пункт обозначить в ней, с чего лучше начать?
А. Милкус:
- Елена Владимировна, мы настолько привыкли уже к этому словосочетанию «искусственный интеллект», и оно настолько уже замылилось, как многие такие понятия, но ведь никакого искусственного, а тем более интеллекта, и нет. Интеллект мы понимаем как разум какой-то, как некое сознание. Сознания у машины нет. Просто взяли и такой алгоритм нейросетей назвали очень красивым словом. Вообще у нас и перевод неточный. Потому что изначально он на английском intelligence – более многозначное слово.
Е. Брызгалина:
- Александр, поддержу вас как философ. Всегда надо начинать с определений. Когда мы используем это словосочетание «искусственный интеллект», безусловно, мы должны понимать, что оно возникает в ситуации, когда ни философы, ни психологи, ни на междисциплинарном уровне нет договоренности о том, что такое интеллект, что такое сознание и что такое разум. Но очень часто бывает, что человечество в научно-технологическом развитии создает искусственные объекты, опережая познание естественных объектов, которые становятся основанием для моделирования чего-то.
Конечно, когда мы употребляем словосочетание «искусственный интеллект», мы должны разделять так называемый универсальный искусственный интеллект или сильный искусственный интеллект, про будущего которого спорят футурологи и философы, достижим ли он, и технологии искусственного интеллекта, или прикладной, слабый, узкий искусственный интеллект. В этом случае мы имеем в виду системы или технологии, которые очень похожи по некоторым когнитивным функциям на человека – восприятие информации, рассуждения, обработка языка. То есть это некие конкретные действия, которые совершает человек, и очень похоже на человека совершает эта техническая система. Она способна к некому обучению, к адаптации, относительно автономна в принятии решений, у нее может быть четкий алгоритм или отсутствие алгоритма, как у нейросетей. И когда мы говорим о применении искусственного интеллекта в медицине и в образовании, мы, по сути, имеем в виду технологии или системы. Несмотря на то, что споры философов, психологов продолжаются, у нас есть ориентиры, например, указ президента о развитии искусственного интеллекта в Российской Федерации. Где, между прочим, очень четко говорится о том, что мы понимаем искусственный интеллект именно как инструмент, как технологию, как систему, и понимаем, что в случае развития и по пути универсального искусственного интеллекта, и по пути узкого искусственного интеллекта нужно обязательно на пересечении разных наук – естественных, технический и социально-гуманитарных. Обсуждать те изменения, которые произойдут в здравоохранении, образовании, в обществе в целом. И обязательно обсуждать риски, которые возникают.
А. Милкус:
- Давайте все-таки скажем, машина мыслить не может, это имитация мысли.
М. Баченина:
- Саша, а как же автономные системы? Они же существуют.
А. Милкус:
- Все зависит от того, насколько точно описан алгоритм. Алгоритм может быть написан программистом, и алгоритм может быть написан и самой машиной. Я хотел бы еще раз уточнить. Елена Владимировна упомянула сильный и слабый искусственный интеллект. Сильный искусственный интеллект, его пока не существует. Для того чтобы он работал, нужны очень большие вычислительные мощности. Но сильный искусственный интеллект – считается, это тогда, когда машина действительно уже может существовать автономно, может принимать решения.
Е. Брызгалина:
- Сама ставить цели и выбирать способы движения. Вот это обычно мы понимаем под автономностью – целеполагание и целереализацию. Чего нет сегодня у искусственного интеллекта – это воли. Когнитивные функции моделируются, частично моделируются эмоции, но нет волевого усилия, а без этого автономные действия невозможны.
А. Милкус:
- В общем, это то, чем нас пугали в «Терминаторе». Пока эта эпоха не пришла, мы можем довольствоваться тем, что называется слабый интеллект, но и его нам хватает за глаза, потому что и с ним полно проблем.
Е. Брызгалина:
- Пусть это слово не создает иллюзию, что слабый – это какой-то несерьезный, и к нему так надо относиться. Это просто обозначение ограниченных функций, которые на сегодняшний день искусственный интеллект может выполнять, но если мы говорим о системах искусственного интеллекта в образовании, то и цели применения, и масштабы отнюдь не узкие и не слабые.
А. Милкус:
- Да. Давайте про образование и поговорим. Буквально вчера я разговаривал с опытным учителем с большим стажем, которая стала возмущаться, что дети домашнее задание в десятом классе не делают, они его загоняют в нейросеть, и нейросеть им все, что нужно, выдает. Она говорит: «Они не учатся. Я уже набила руку, понимаю, как распознать, что это все нарисовано искусственным интеллектом. Но как они будут дальше учиться, и что мне делать?» Вот у человека такой крик души. Дети довольны, потому что у них освобождается время на компьютерные игры.
Е. Брызгалина:
- Действительно, мы сегодня имеем дело с очень различающимися представлениями тех, кто учит, и тех, кто учится, о преимуществах искусственного интеллекта. Сильное несовпадение. На что обращают внимание обучающиеся? На то, что, например, использование чат-ботов, которые помогают проходить, например, конкретную дисциплину или решать какие-то локальные задачи. Это круглосуточный доступ, свободное планирование собственных образовательных активностей, минимизация усилий, повышение вовлеченности и мотивации. Современным школьникам и студентам подчас легче сыграть (это называется геймификация образования), чем рассматривать образование как серьезный труд. Учащиеся говорят о том, что можно получать от чат-бота, который выполняет функцию репетитора или тьютора, обратную связь в режиме реального времени, даже выбирать цифровой аватар преподавателя в зависимости от того индивидуального стиля преподавания и межличностного общения, которое школьнику или студенту нравится.
Отсутствует давление на личность. Если в классе школьник или студент сравнивает себя с другими, то для некоторых молодых людей это болезненно, и они предпочтут, чтобы их оценивал не человек, а искусственный интеллект. Для преподавателей же такая система, как искусственный интеллект, позволяет в автоматическом формате создавать учебные материалы, возможность, как из блоков, делать дизайн курса из готовых материалов. Преподавателя привлекает автоматизация проверки работ учащихся. Сегодня это уже не только тесты, но и вообще письменные работы, сочинения. Знаете, у меня в аудитории довольно много китайских студентов, и я на занятии попросила поднять руку тех китайских студентов, которые, будучи школьниками в Китае, получали оценки за сочинения от искусственного интеллекта. Порядка 80% подняли руки. Это уже реальность.
Но это ожидания, это те плюсы, которые видятся. На самом деле риски, они связаны не только с тем, что Илон Маск провозгласил «Прощай, домашка», и домашняя работа перестаёт выполняться теми, кто учится самостоятельно. Риски связаны с тем, что искусственный интеллект может трансформировать все аспекты понимания образования.
Во-первых, ключевой для философа аспект ценностный. Что такое образование как ценность для учителя, для педагога высшей школы, для школьника, для студента, для семьи, для общества и государства? Ведь ценность – это то, что нас ставит в отношение к миру, к другому. И если мы образование трактуем не как труд, а как развлечение, если мы передаем свою субъектность и цели нашего образования формируем не мы или не педагог, а искусственный интеллект, то мы, конечно, работаем против антропологической сущности образования. Образование развивает человека, не вмешиваясь в его природу, а рассматривая то, что возникает в образовательном процессе, в образовательной среде как возможность улучшить человека.
Опасность в том, что тенденции применения искусственного интеллекта в образовании совпадают с теми тенденциями развития самого образования, которые сложились в последние десятилетия. Например, в образовании стали ценить персонализацию и индивидуализацию. Действительно, все школьники и студенты разные, у педагогов разные ценностные ориентации, представления о должном. Но искусственный интеллект эту тенденцию персонализации и поддерживает, и формирует. Например, за счет искусственного интеллекта можно создавать индивидуальные образовательные программы. Например, сам студент или школьник формирует для себя желательный результат образования, например, какие компетенции hard skills, soft skills… Конечно, это устоявшаяся терминология не всеми разделяется, но, тем не менее, сегодня образование результаты фиксирует именно в виде компетенций. Вот если ты сам понимаешь, что тебе нужно усилить, то искусственный интеллект в состоянии подсказать тебе, как это сделать в рамках индивидуальной траектории.
Еще одно направление персонализации. Мы же знаем, что есть «совы» и «жаворонки». Например, когда у меня первая пара, я вижу очень большое количество студентов, которым тяжело рано проснуться. Так вот, искусственный интеллект может помочь сформировать индивидуальный график образовательного процесса с учетом особенностей, в том числе хронотипа. Искусственный интеллект может снять с преподавателя (и с родителя, кстати) дополнительную нагрузку по поддержке процесса образования, установить обратную связь. И то, что мы привыкли рассматривать как результат образования, личностное развитие, рост, получение не только знаний, но и формирование воспитательных результатов – вот это может оказаться под ударом.
Потому что, конечно, воспитывает человек человека, но если появляется посредник в виде системы искусственного интеллекта, мы понимаем, что в эти системы заложены, в том числе, некоторые моральные нормы. Вот это выражение «этика искусственного интеллекта». Вы сказали, что у искусственного интеллекта нет разума, но и этики нет. Эти некоторые ориентиры заложены разработчиками, но, тем не менее, они становятся основанием, для того чтобы искусственный интеллект порекомендовал, например, кого зачислить в университет, а кому отказать. И здесь возможна дискриминация, возможны галлюцинации искусственного интеллекта.
М. Баченина:
- Секундочку. Галлюцинации искусственного интеллекта – это как? Я впервые об этом слышу.
Е. Брызгалина:
- Галлюцинации искусственного интеллекта – это те ошибки, которые могут возникать, если мультимодальные модели типа ChatGPT, GigaChat от Сбера отвечают на некие запросы. Галлюцинации – это то, что искусственный интеллект выдает за реальность, но этого в реальности не существует. Например, может быть генерация ложного образа.
М. Баченина:
- Я поняла, Елена Владимировна. Я у ChatGPT спросила про себя – «Баченина Мария». Он меня сделал актрисой, которая мало известна, но… Я читаю и думаю: откуда ты это вообще взял? Вот она, галлюцинация.
А. Милкус:
- Я про себя спросил, а он мне сказал, что я – выпускник экономического факультета МГУ, инвестор и очень богатый человек.
Е. Брызгалина:
- Автоматический перевод. Вы запустили через нейросеть перевод текста, а он вам дал результат, который сильно отличается от первоначального смысла. Например, когда модель неправильно обучена или неправильно обработала контекст. Некоторые системы искусственного интеллекта вообще могут придумывать, воображать данные, которых никогда не существовало.
М. Баченина:
- «Выпивший» такой ИИ.
Е. Брызгалина:
- Одна из студенток сдала мне работу, в которой были указаны нормативно-правовые акты, федеральные законы с указанием дат их выхода, номеров. Их вообще не было. Искусственный интеллект может генерировать собственные примеры, которые выглядят правдоподобно, но на самом деле отсутствуют. И если искусственный интеллект широко вторгается в образование, то возникает вызов для преподавателя - как это распознать, для учащегося – готов ли учащийся работать с этими галлюцинациями.
М. Баченина:
- Верифицировать вообще-то. У меня, знаете, сын отвернулся, так сказать, подверг «Алису» остракизму, а мне не верил. Но после того, как «Алиса» его подставила раза три, выдав ему ответ, не знаю, откуда взятый, наверное, с какого-нибудь Otvet.mail.ru, где кому угодно можно верить или не верить, он ее стал или проверять, или презирать. Ну, сам себя наказал.
Е. Брызгалина:
- А вот здесь, Мария, вы вышли на очень интересную проблему. Что делать? Противодействовать. То есть это либо обучение тому, как выявлять галлюцинации, например, сколько раз менять промты (запросы) к нейросети. Например, спросить ее: пожалуйста, устрани то, что ты придумала в тексте (или каким-то иным образом). Или преподаватели сейчас с очень большим желанием используют системы, которые распознают сгенерированные тексты. Но вот этот вариант противодействовать, он не самый лучший, как вообще нехороший вариант – запретить. Это просто невозможно. Между прочим, по этому пути пошли в основном в школьном образовании, запрещая использование нейросетей для выполнения домашних работ. Но мы понимаем, что в высшей школе запретить искусственный интеллект невозможно, с ним надо учить работать. А вот для преподавателей, кроме задач распознавания, возникает более сложный вопрос – можем ли мы вообще разработать новые подходы к оценке результатов обучения. Например, отказаться от письменных работ и дипломов как формальных практик. Мы ведь помним эту ситуацию, когда студент – выпускник РГГУ написал дипломную работу в 2023 году при помощи чат-бота. А сегодняшние модели 2024 года, они еще более совершенные, они и ЕГЭ по обществознанию еще в ноябре 2023 года сдали на проходной балл.
А. Милкус:
- Это не совсем так. Мы не знаем, по каким критериям, мы не очень понимаем, как он сдавал это обществознание, там есть открытые вопросы и т.п. Мне кажется, это просто такая реклама была. Мы с вами были на конгрессе молодых ученых, где очень гордо директор «Иннополиса» об этом заявлял, но, как и любое такое утверждение, его надо, по-моему, подвергать сомнению, насколько это вообще возможно. Я эту историю разбирал с директором Федерального института педагогических измерений, который готовит контрольно-измерительный материал, и он сказал: «Я поинтересуюсь». А каким образом можно технологично загнать в искусственный интеллект тексты или задания по ЕГЭ по обществознанию? Потому что это все невозможно сделать для машины.
Е. Брызгалина:
- Согласна с вами, экзамен по обществознанию сейчас стал довольно сложным и, конечно, далеко ушел от простых тестовых заданий. Ту систему обучали на актуальных демо-версиях 2023 года. Но поддержу вас в том, что все нужно критически оценивать. И, конечно, если продолжать разговор о том, какие еще варианты реагирования на распространение искусственного интеллекта есть, я бы сделала акцент все-таки на развитие процесса образования. Возможно, систему образования ждет изменение подходов к организации учебного процесса именно с учетом того, что могут делать сегодня нейросети. Например, образовательные организации могут установить правила, по которым автор работы (это и обучающийся, и, например, преподаватель, ученый) мог бы присвоить себе результат работы нейросети и указать свою фамилию. Если этого не делать, то это и плагиат, это академическое мошенничество, но при широком распространении нейросетей придется устанавливать правила.
М. Баченина:
- Слушайте, это же логично. Если ты ChatGPT задашь неправильный промт (запрос)… А это ведь тоже искусство поиска, в данном случае – устное, как в Яндексе мы когда-то давно, как в Яндексе ты запрос задашь, так тебе Яндекс и выдаст. Я к чему веду? Это же тоже надо обладать знаниями. Второе – ты верифицируешь. Третий пункт. Ты смотришь, не написал ли он тебе слишком простым языком или слишком формальным, а нужен академический в данном случае. Здесь ты тоже мозг включаешь. Это все у меня коррелируется с тем, что сейчас не надо заучивать, надо уметь анализировать, и эти самые soft skills (мягкие навыки) – когда ты видишь: ага, вот так, красиво, спасибо, ИИ, я пошел вперед. И вот здесь, по-моему, хорошо ИИ поставить в соавторство.
Е. Брызгалина:
- И это так. Вы обратили внимание на различие между информацией и знанием. Информацию, безусловно, очень легко получить, проанализировать, но вписать в контекст общей системы знаний, установить, добросовестный источник или нет, придать еще этому знанию этот ценностный аспект. Ведь не просто информация, а то, как мы с ней работаем, какое она значение имеет для нашего поведения.
Борьба с академическим мошенничеством в образовании была всегда. Ну, не развили мы у учащихся бескомпромиссную добросовестность. Никогда отсутствие шпаргалок не отличало образование ни в одной стране. Сейчас, действительно, у преподавателя дополнительная работа – убедиться в том, что знает учащийся. Не путь к этой информации с помощью искусственного интеллекта, а что знает. Вот искусственный интеллект как посредник между тем, кто учит, и тем, кто учится, не меняет кардинально взаимодействие субъектов образования, это просто технический вызов. И для преподавателя по-прежнему важно транслировать знания и понимать уровень их освоения.
Учащийся, скажем честно, пытается минимизировать личностные познавательные усилия. Бумажные шпаргалки, электронные подсказки сейчас просто заменились иным, более технически продвинутым помощником. Поэтому вызовы будут сегодня одни, завтра другие. Не за горами вообще массовое внедрение нейротехнологий, то есть вмешательства в мозг для достижения желательных образовательных результатов, страшные для меня перспективы, возможно, генетического редактирования. Поэтому вписывание технических новаций в процесс, результат, систему образования – это не технический вопрос, это скорее культурный вызов, это скорее осознание академическим, прежде всего, сообществом (потому что педагоги ставят цели образования) того, что в этих новых условиях, да, может быть, для нас необычных, непривычных, мы все равно можем достигать желаемый для нас результат.
Но хватит ли у преподавателей сил? Есть ли у преподавателя возможность адаптироваться к этим вызовам цифрового развития? Ведь преподаватель может испытать выгорание (преподавательская профессия относится к числу высокорискованных для выгорания). Не захочет ли преподаватель переложить на искусственный интеллект ответственность, например, за оценивание? Очень важно при технических новациях поддержать статус педагога, четко сказать, что педагог незаменим техническими средствами. Но роль педагога меняется. Это помощь именно в верификации информации, оценивание информации в контексте формирования личности. И профессионалы, если мы говорим о высшей школе. Только педагог-человек является экспертом в том, какое именно знание ценностно-важно, как его подать, чтобы оно должным образом было востребовано человеком, когда молодой человек определяет свои цели развития и выбирает способ достижения.
Опасность – это тотальная дегуманизация и прагматизация образования. Но мне кажется, что все-таки такой кризисный период мы преодолеем. Риски велики, но есть надежда, потому что довольно консервативный институт образования, и в этой консервативности есть свои плюсы.
М. Баченина:
- Я хотела немножко резюмировать о плюсах и минусах. Мне кажется, и смысла рассуждать, вреден он или полезен, чего больше – плюсов или минусов, нет. Это бессмысленно, потому что он есть, и мы должны просто взять процесс в свои руки и заставлять детей с младых ногтей использовать свой мозг, чтобы организм… Хотя интересно, организм может отказаться от использования мозга? Ну, конечно, да. Знаете, руки, ноги отмирают, когда они не нужны. А здесь нейронные связи будут стремиться к нулю.
А. Милкус:
- Маша, ты сама веришь в то, что говоришь?
М. Баченина:
- Конечно, верю.
А. Милкус:
- Заставлять детей…
М. Баченина:
- Саша, я всегда говорю то, что делаю на практике. Я каждый день «душню» и стимулирую своего 13-летнего сына, чтобы он применял мозг и думал, думал и думал. И если я вижу, что он где-то филонит, я делаю так, чтобы в следующем шаге он начинал снова делать так, как мне нужно.
Е. Брызгалина:
- Маша, я вам сейчас дам дополнительный аргумент в разговорах с сыном. Обратите его внимание на то, что в системе образования сейчас активно фиксируются так называемые цифровые следы. Все, что делается нами в публичном цифровом пространстве, собирается. И, например, если мы смотрим на перспективу, то надо понимать, что 90% работодателей в России изучают эти цифровые следы, например, социальные сети. Скажем, ваш сын проходит какой-то онлайн-курс. При этом оцениваются не только его содержательные результаты (что он усвоил, например, в виде тестов и в виде эссе). Сегодня есть возможности фиксировать то, как проходит обучающийся эту траекторию. Например, большой курс, много обучающихся, один преподаватель. Он, конечно, все работы не проверит, привлекут так называемых преподавателей второго эшелона, тех, кто сам учится. И вот они будут друг друга оценивать, и это тоже будет зафиксировано. Ты более критичен к себе или к другому? Ты, например, топишь своего конкурента, ставя ему более низкие оценки, или поддерживаешь? Ты выполняешь работу, когда уже дедлайн поджимает, или когда времени еще много? И это уже не чисто про образовательные результаты, это про тебя как про личность. И чем больше будет развиваться цифровая экономика, тем больше вот эти индивидуальные следы, индивидуальные многомерные профили учащегося будут становиться товаром и влиять на перспективы человека, например, на рынке труда.
М. Баченина:
- А у меня есть для Александра еще одно доказательство того, что невозможно. Смотрите, ChatGPT или той же «Алисе» можно продиктовать задачу по физике, и она тебе выдаст верный ответ. Но в задаче по физике половину оценки составляет оформление. Это очень важная часть – как ты оформишь задачу по физике, написал ты формулу или нет и т.д. А вот этого нет, ты готов только ответ написать. Это то, что мы говорим - в конструкт интегрировать полученный ответ. Хорошо, она решила, и здесь он должен сам найти и оформить…
А. Милкус:
- Компания Apple пообещала или анонсировала операционную систему с внедрением искусственного интеллекта, которую они обещают показать или дать возможность использовать ее летом 2025 года. И там будет такая фишка, можно будет навести экран на задание, и тебе искусственный интеллект не просто даст ответ, он тебе распишет варианты решений.
Е. Брызгалина:
- Причем почерком человеческим.
А. Милкус:
- Да. Он разбирает любой почерк и т.д.
М. Баченина:
- И что мы с этим будем делать? Вы помните мультик «ВАЛЛ·И», когда мы все летали, толстенькие, румяненькие, на таких воздушных подушечках, и когда хотели что-то съесть, нас подвозили к этому. Мы же погибнем. Вот оно, то самое.
А. Милкус:
- Так вот, я хочу подтвердить сцену из «ВАЛЛ·И». Буквально две недели назад один из американских программистов, который больше 20 лет занимается разработкой искусственного интеллекта, сказал, что эти модели, нейросети уже научились настолько грамотно писать (ну, может быть, пока по-английски), что пишут они грамотнее, чем большинство студентов и школьников. И школьникам сейчас проще загнать задание по литературе, философии и т.д. и получить грамотный литературный текст, чем писать самим. И вот он говорит, что в течение одного-двух поколений, если это не изменится, мы получим дебилов, которые не могут сами сформулировать и высказать мысль, которая у них родилась. Они не смогут писать нормально на родном языке, вместо них будет заниматься этим ChatGPT. Тут уже не просто подвозят и с тележечки кормят, а уже такая сплошная дебилизация. Я не хочу пугать, но это слова не мои, а программиста, который с этой технологией работает 20 лет.
Е. Брызгалина:
- И обратите внимание на то, что у нас фактически нет возможности получить доказательные данные о результатах, о безопасности, о надежности систем искусственного интеллекта в образовании. Потому что для доказательных данных нам фактически нужно провести эксперимент. Взять какую-то группу, обучать только с помощью технологий искусственного интеллекта и посмотреть на результат. Но высокие риски появления цифровых Маугли и этические, правовые ограничения, конечно, нам не позволят это делать. И получается, что широкое внедрение искусственного интеллекта – это, по сути дела, экспериментальная ситуация без возможности признать этот эксперимент неудачным. А в этом эксперименте дети, за которых вообще-то дают согласие родители. И согласие родителей, данное в будущее, уже неотменимо. Соответственно, мы не должны испытывать вот эту иллюзию, что мы получаем какие-то доказательства и опираемся в применении в образовании этих новых технологий на доказанные вещи в плане надежности и результативности. Например, сейчас много говорят, что детям интересно взаимодействовать с виртуальной реальностью, с дополненной реальностью, с искусственным интеллектом, но эта идея вовлеченности, она очень быстро закончится, это очень быстро надоест. А значит, нужны либо более сильные стимуляторы, либо мы должны тогда отказаться от идеи, что образование – это труд, и мы идем по пути развлечения в бесконечность.
Образование в целом. И это не только школьное или профессиональное образование на уровне среднего или высшего, это ведь и корпоративное образование. А вот в нем как раз место виртуальной, дополненной реальности совсем другое. Например, развивать навык работу со сложным оборудованием в цифровой среде без риска это оборудование повредить. Например, в экстремальной ситуации научить тушить пожар на нефтегазовом предприятии. То есть обучить рабочим или коммуникативным процессам.
М. Баченина:
- Это предлагалось еще на уроках ОБЖ и на окружающем мире. Потому что городские дети подорожник узнают только в пятом классе, когда мы в детском саду это понимали. Это что, плохо, получается?
Е. Брызгалина:
- Нет, сейчас это тоже есть. Например, есть разработки химических или физических лабораторий. И отлично, если в школе, где нет соответствующего оборудования, нет возможности приобрести расходные материалы, школьники погружаются в эту среду. У меня, например, был опыт нахождения в виртуальном кабинете Менделеева, где можно было виртуальной рукой поработать с пробирочками и получить результат. Это было интересно и безопасно. Я говорю о том, что вот эта линия, если ее не компенсировать развитием традиционных форм, работой не только в виртуальной реальности, но и пальчиками, с бумагой, с реальными предметами, с наглядными образами… Мы очень часто в образовании впадаем в крайности, знаете, мы хотим разогнуть и перегибаем в другую сторону. У всего цифрового в образовании должно найтись свое место. Поэтому мы и обсуждаем цели, плюсы, минусы, то, что мы можем получить.
Но главное, что мы сегодня находимся, посмотрите, в какой интересной ситуации. Пока системы искусственного интеллекта в образование вошли все-таки не массово, мы плюсы и минусы обсуждаем гипотетически. Кто-то может сказать, что все риски будут преодолены технологическим развитием. Человечество всегда чего-то боялось – железных дорог, электричества, ядерной энергии и т.д. Всё подчинили и пользуемся. А кто-то скажет: нет, все-таки риски сущностные. Слово против слова. Но пока мы технологии искусственного интеллекта можем контролировать.
М. Баченина:
- А как же закон? Ведь он же принят.
Е. Брызгалина:
- Закон – это всегда минимум добра. Понимаете, закон фиксирует устоявшиеся социальные отношения, а искусственный интеллект дает нам не просто новый объект, но и новые взаимодействия между педагогом и учащимся, между врачом и пациентом. И здесь еще нормы, чтобы ее в законе закрепить, нет. Но мы уже действуем, и действуем мы как моральные субъекты, подчиняясь не внешнему давлению норм и права, а нашим внутренним убеждениям. Но когда искусственный интеллект будет применен в образовании широко, мы поймем, кто был прав в дискуссии, кто ошибся. Будут очень четко доказаны риски – дебилизация, утрата когнитивных функций…
М. Баченина:
- Елена Владимировна, главное – успеть. Главное, чтобы мы не переступили черту невозврата.
Е. Брызгалина:
- Потому что, когда это будет широко развито, контролировать уже будет невозможно. Поэтому вы правы, мы в очень узкой зоне, когда мы должны четко сформулировать позицию. Она будет исходить из чего? Из цели. Мы чего хотим в образовании – развлекать детей, готовить их к обслуживанию техники, минимизировать креативность, собственную субъектность за счет этих технологий или нам все-таки важно развитие человека? Вы обратите внимание, когда наш президент призвал на форуме БРИКС присоединиться к кодексу этики искусственного интеллекта, ключевой тезис, который отстаивает Россия, это то, что искусственный интеллект – только инструмент, его никогда нельзя рассматривать как субъект. Поэтому за результаты лечения отвечает врач, за результаты образования отвечает педагог (конечно, вместе с родителями, со всем сообществом). Но найти это место технологии довольно сложно. Мы можем попасть (я такой термин, простите, все-таки не могу не ввести)… В липкие технологии влипнуть. Что это значит? Может возникнуть у детей, которые сразу будут входить в эту цифровую среду с агентом – искусственным интеллектом, ложное чувство, что можно заменить традиционные социальные связи, эмоции, которые возникают между людьми, привязанностью к этой системе искусственного интеллекта.
М. Баченина:
- Влюбиться в «Алису»…
Е. Брызгалина:
- Они научаются все более широкому спектру эмоций, и они подстраиваются под то, что мы ждем. Видели, как дети сегодня к книжкам относятся? Они берут книжку и вот так пальчиком растягивают изображение, картинку. Потому что они привыкли, что всё в цифре.
М. Баченина:
- Меня есть знакомые блогер, и когда ее дети на даче подошли к рукомойнику, стали водить под ним… Знаете, мы посмеялись, но были такие хейтеры, которые говорили: что за дебильные дети? Нет, это современные дети.
А. Милкус:
- Давайте все-таки скажем, что то, о чем сейчас говорила Елена Владимировна, время на адаптацию, на переход и понимание, как должна меняться система образования при всей ее консервативности, это год-два-три, максимум – пять.
М. Баченина:
- А потом - всё, мы дебилы?
А. Милкус:
- Нет, будет что-то другое. Но если мы сейчас не выработаем эти правила и не начнем по этим правилам учить и понимать, то мы, действительно, получим поколение людей, которые будут вкушать сладкий сиропчик.
Е. Брызгалина:
- И здесь у нашей страны есть преимущество. Потому что у нас четко сформулированы цели развития, ценностные ориентиры. Мы не первыми прыгаем в пропасть, поэтому у нас есть возможность оценить последствия использования технологий и выработать эффективные правовые и этические механизмы регулирования. И мы вообще можем (и это наша национальная когнитивная особенность) задуматься – а вообще есть другой путь? Вот какие ценностные основания научно-технологического развития? Мне как философу очень не хватает разговора о целях. Все это – инструменты. А ради чего в центре должен быть человек, тот, кто учит, и тот, кто учится? И перспективы его жизненного развития.
М. Баченина:
- Если мы тут касаемся образования, тут понятно, что в центре должен быть человек. Если мы говорим о высоких технологиях, там-то понятно, что нужны высокотехнологичные машины, которые обсчитывают, просчитывают, и искусственный интеллект там необходим. Мы как-то должны это на секторы разбить или в целом ответить на вопрос, зачем это?
Е. Брызгалина:
- Мы должны это интегрировать. Это все связано. И развитие среды, оно тоже для человека. И если искусственный интеллект помогает образованию быть доступным… Например, сельская школа, а ребенку нужна сложная математика. Пожалуйста, он может проходить курс, индивидуальные задания. Если проанализируют особенности и подскажут, в какую профессию идти, потому что профориентация очень важна, а уследить за всеми тенденциями, что на рынок приходит, что уходит, сложно. Здесь тоже может помочь искусственный интеллект. Помочь преподавателю зафиксировать результаты образования и т.д. Это все реальность, это все плюс, это все, в конце концов, для человека.
М. Баченина:
- Елена Владимировна, спасибо, заставили задуматься. Правда, я теперь не очень понимаю, мне что, прийти домой и электричество отключить? А кто не согласен, отключим еще и газ, выражаясь словами классика. Саша, что вам понятно? Сделайте выводы.
А. Милкус:
- Я могу сказать, что сейчас разрабатывается стратегия развития российского образования, там точки – 2030, 2036 и 2040 год. Я тоже вхожу в состав экспертов этого большого проекта, там 650 человек участвует. И вот один из рисков, который сейчас описывается, и вырабатываются пути решения этих историй с безопасностью, это как раз цифровизация и искусственный интеллект, и как его, как раньше говорили, поставить на службу человечеству. Будем ставить.
М. Баченина:
- Будем. Елена Владимировна, огромное вам спасибо. Многие, наверное, впервые задумались, что на проблему искусственного интеллекта полезно смотреть с точки зрения философии. Потому что мне кажется, что это все действительно заставляет думать (в высоком смысле этого слова).
Подписывайтесь, чтобы не пропустить новые выпуски нашего подкаста для родителей и слушайте, когда удобно.
➤ Слушать прямой эфир: https://radiokp.ru
➤ Читать эксклюзивные новости: https://www.kp.ru
➤ Подписаться на наш телеграм: https://t.me/truekpru
➤ Самое интересное из эфира: https://t.me/radiokp