По вопросам поступления:
Бакалавриат (доб. 709, 704, 715, 710)
Магистратура (доб. 703)
Онлайн-бакалавриат (доб. 709, 711)
Дополнительное образование (Москва — доб. 705, 706, 712, Санкт-Петербург — доб. 701)
Детская школа (доб. 707)
С понедельника по пятницу
с 10:00 до 18:00
По общим вопросам
Сегодня было объявлено, что словом года по версии словаря английского языка Collins стало AI — аббревиатура, обозначающая искусственный интеллект. По сообщению Collins, употребление этого слова по сравнению с 2022 годом выросло аж в четыре раза. Воспользовавшись этим поводом, мы поговорили с Вадимом Булгаковым — руководителем «Лаборатории искусственного интеллекта», одного из самых перспективных проектных юнитов Школы дизайна НИУ ВШЭ.
В интервью для DESIGN.HSE Вадим рассказал об использовании искусственного интеллекта в креативных индустриях, о преимуществах, соблазнах и опасностях, которые привнесли в мир людей нейросети, и о том, почему нам не стоит ждать восстания машин (как минимум, в ближайшее время).
Преподаватель Школы дизайна НИУ ВШЭ, руководитель юнита «Лаборатория искусственного интеллекта». Дизайнер, арт-директор, диджитал-продюсер. Руководил проектами и развивал продукт от бета-версии до выпуска в Lapka, Baselance, Papaton Kids, CardPlace.
Прежде всего — вопросами прикладного применения искусственного интеллекта (далее — ИИ) в креативных индустриях. Поскольку у нас работает много людей с очень высоким уровнем экспертизы в области дизайна, иллюстрации и так далее, ИИ можно применять для рабочих процессов — если есть запрос их усовершенствовать. Очевидно, что такое применение ломает производственные цепочки: раньше какие-то процессы занимали очень много времени, теперь — радикально меньше. Скажем, объём иллюстраций, который делался в течение года, с помощью ИИ создаётся за несколько минут. В конечном итоге, всё в этой связи сильно меняется, не только непосредственное производство контента, но и его экономическая, бизнес-составляющая. Кому-то надо этим заниматься — вот мы и занимаемся.
Не совсем. Нейросеть — это технология, созданная на базе математической формулы, причём достаточно старой. Как только появились необходимые вычислительные мощности, появилась и возможность эту технологию реализовать. До этого тоже можно было, но очень долго и потому бессмысленно. Что же касается искусственного интеллекта, то, в принципе, сам этот термин — немного журналистский. Всякий раз актуальную технологию норовят обозвать «искусственным интеллектом».
От искусственного интеллекта, каким его описывала научная фантастика, мы ещё очень далеки. А вот если говорить об устройстве, имитирующем работу нейронов в человеческом мозге — да, нейросеть работает сходным образом.
От искусственного интеллекта, каким его описывала научная фантастика, мы ещё очень далеки. Если говорить об устройстве, имитирующем работу нейронов в человеческом мозге — да, нейросеть работает сходным образом. Но по объёму операций мы пока и близко не подошли к мозгу, хотя механизм его работы очевиден. А если размышлять в спекулятивном контексте — создали мы искусственный разум или нет? — то это вопрос веры: можно верить и в то, что создали, и в то, что не создали. И оба ответа будут верными.
С точки зрения биологии — ничего не создали, а что до остального... Почему человека пугает ChatGPT? Потому что у нас, как у популяции, есть некий опыт общения с другими людьми в чате. И когда ты общаешься в чате с машиной, не чувствуя особой разницы, то, по сути, сам решаешь, живое оно или неживое. В этом вся хитрость. Тот, кто более впечатлителен и более склонен к, скажем так, мистическому мышлению, может расценить поведение ИИ в чате как проявление чего-то живого. Потому что оно похоже на что-то живое.
Они недостаточно умные. Колонки, а не люди. В свое время и эппловскую Siri называли ИИ... На современном уровне это вообще ерунда, та же «Алиса» намного продвинутее. Но тут дело в том, что они пока еще не настолько очеловечены, чтобы это пугало. То есть на уровне устного общения мы подсознательно чувствуем разницу, понимаем, что это машина, и нам от этого спокойнее. Те, кто занимается разработкой голосовых чатов, специально делают так, чтобы это отличалось от живого человека. А на уровне текста разницу почувствовать не получается! Нет интонационных моментов, пауз... И мы не видим разницы между человеком и машиной. Это и пугает.
При этом физически мы имеем дело всего лишь с неким комплексом программного обеспечения, работающим на определённой вычислительной мощности. Это просто программный код, который делает что-либо. Если говорить про технологию GPT, на которой построено большинство актуальных чатов, то это очень старая технология; она использовалась ещё для мобильной связи — помните систему набора текста T9? У неё на уровне концепции очень простой алгоритм (хотя на уровне реализации непростой): на вход даётся несколько символов, и чат пытается предсказать, какой символ должен идти дальше. Это проще всего понять на человеке: если мы услышим начало фразы «Пейте, дети, молоко», то на автомате додумаем: «будете здоровы». Чтобы получить это окончание фразы, нам потребовался «раздражитель» в виде начала фразы на входе и набор знаний и опыта. Если человек не знал фразу целиком, то он придумает какое-то другое продолжение.
Вот и технология GPT работает схожим образом. Исходя из этого, можно объяснить и то, почему GPT может говорить неправду: потому что он создан, чтобы продолжать текст. В формате диалога, к примеру...
Если мы услышим начало фразы «Пейте, дети, молоко», то на автомате додумаем: «будете здоровы». Чтобы получить это окончание фразы, нам потребовался «раздражитель» в виде начала фразы на входе и набор знаний и опыта. Вот и технология GPT работает схожим образом.
История в другом. Эта технология создана, чтобы отвечать на вопросы в любом случае. И если готового ответа нет, система впадает в своего рода панику, ведь она обязана ответить, это её основная цель. Дальше — вопрос подстройки.
А по поводу морали, этики и прочего — по умолчанию, конечно, ничего этого нет. Но производитель софта обычно его достраивает, чтобы это хотя бы выглядело как-то прилично: если нейросеть начнёт к экстремизму призывать, акции компании-разработчика резко подешевеют. Но вот Stable Diffusion — софт с открытым кодом, который можно редактировать; блок, отвечающий за цензуру, легко отключить, и тогда от ИИ можно ждать чего угодно.
Впрочем, многое уже происходит. Дипфейки, к которым мы привыкли — это тоже нейросетевая история. Сейчас можно воспроизводить голос по трём секундам записи: хочешь — песни петь будут твоим голосом, хочешь — любые речевые фрагменты записывать. И эти подделки непонятно как обнаружить: уровень качества такой, что мы не можем ни машинно, ни на уровне слуха определить, создано это нейросетью или человеком. Вот тут возникает вопрос: как всё это регулировать? Многие программы работают с открытым исходным кодом, любой может их установить, настроить, как нужно, создать контент... Тут вопрос не столько технологический, сколько, наверное, социальный, в плане договорённости людей: как они будут это воспринимать, как будут с этим работать? Как будет работать в этих условиях институт репутации, например? Что делать, если любой компромат в теории может быть создан на коленке школьником в его мобильном телефоне?
Да, технологии сегодня позволяют пиратить авторский стиль изображений, фотографий, текста, чего угодно. Мы можем обучить машину на образцах и создавать контент, который будет стилистически похож на них. Текст, сгенерированный в духе Толстого или Пушкина, получается очень похожим; человек, не знающий всего корпуса произведений того или иного автора, но знакомый с его творчеством, может с лёгкостью принят такой текст за чистую монету. Это реальность. И придумывание чего-то нового тоже отходит на второй план, потому что мы можем создавать уникальные вещи, смешивая в разных пропорциях разные стилистики, жанры, направления.
Ключевой момент в том, что процесс создания контента в случае ИИ очень прозрачен. Когда человек ходит по арт-галереям, смотрит на картины, и потом рисует своё — будут видны какие-то признаки влияний того или иного художника. Но мы всё-таки не можем это точно отследить: видел он некий источник, не видел... С машиной же мы всё понимаем чётко: сколько и каких картинок ей дали и какой результат получился на выходе.
У меня какое-то время назад было любимое развлечение: генерировать изображения в стиле художника-комиксиста Майка Миньолы. У него есть ученик-последователь Гэбриел Ба, они вместе работали. И когда мы просили нейросеть сгенерировать изображение в стиле Майка Миньолы, получалось изображение в стиле Гэбриела Ба! Процесс стал прозрачным, но как его документировать, неясно. Недавно был анонсирован софт Dall-E 3, и разработчики объявили, что убирают возможность генерации изображений в стилистике ныне живущих художников. Также не будет возможности генерации портретов живых людей. Исторических персонажей — можно, живущих ныне — нельзя.
Реальность поменялась, новые технологии, как правило, редко откатываются назад, и надо, чтобы студенты могли с этим спокойно работать. С Нового года в Школе запустится специальный курс от нашего юнита, плюс кое-что мы внедряем в существующие общевышкинские учебные программы. Не все студенты — и преподаватели — готовы к этому, но это нормально. У тех, кто занимается, к примеру, дизайном, теперь есть инструмент, который даёт им возможность, ни с кем не взаимодействуя, довольно быстро создать нужное количество иллюстраций, и это сильно облегчает работу.
Старт в январе 2024
В принципе, да. Причём если смотреть с точки зрения креативного производственного процесса, то впервые в истории появился инструмент, влияющий на производство на этапе придумывания. До этого у нас весь прогресс шёл в области финальной реализации, автоматизации: ткацкий станок, к примеру, возник, чтобы ткань производить быстрее. А теперь появилась возможность быстрее придумывать гораздо большее количество вариантов идеи. До этого мы были ограничены способностями нашего мозга, а они в рамках популяции плюс-минус одинаковы. И если раньше на процесс придумывания тратилось человеческое время, то теперь с помощью машины мы можем аутсорсить и ускорять этот процесс. Получается, что на самом первом этапе придумывания решения проблемы произошел невероятный, очень мощный скачок вперёд. И мы пока не знаем, к чему это приведёт.
Впервые в истории появился инструмент, влияющий на производство на этапе придумывания. Если раньше на процесс придумывания тратилось человеческое время, то теперь с помощью машины мы можем аутсорсить и ускорять этот процесс.
Важно, чтобы процесс нашего мышления синхронизировался с тем, как и что понимает машина. В программе по обучению промпт-инжинирингу и работе с нейросетями, которую я сделал, важный блок посвящён изучению объектно-ориентированного проектирования, ООП. Почему? Потому что нейросети написаны с применением ООП и думают в рамках ООП! Это тот формат, который машине понятен, и если мы в этом же формате с ней общаемся, она нас лучше понимает.
Что это такое — ООП? Если простыми словами, то всё, что нас окружает, мы должны представлять в формате объектов и связей между ними. Не на уровне функций, а вот так, к примеру: компьютер стоит на столе. Есть компьютер, есть стол, и у них есть набор свойств, атрибутов. То, что стол служит основанием для компьютера — момент связи, взаимодействия. Дальше просто вопрос в том, чтобы научиться понимать, что сам объект нужно уметь описать, надо уметь описывать эти взаимосвязи и описывать с той точки зрения, с который мы всё это видим. Есть и ещё детали, но в целом, если мы понимаем, как обозначить объект, всё становится проще. Правда, с текстами этот подход не работает. Генерация текстов ближе к функциональному программированию: там важнее задать рамки. Задал правила игры, отправил первичные настройки — и можно с этим работать.
В наш курс в рамках общей вышкинской дисциплины, которая связана с компьютерной грамотностью, мы как раз вводим и курс промпт-инжиниринга. Нет, Python и всё остальное тоже остаётся, но уже в применении к этим задачам, к работе с нейросетями. Пора привыкать к тому, что теперь это наши рабочие инструменты.
В наш курс в рамках общей вышкинской дисциплины, которая связана с компьютерной грамотностью, мы вводим и курс промпт-инжиниринга. Нет, Python и всё остальное тоже остаётся, но уже в применении к работе с нейросетями. Пора привыкать к тому, что теперь это наши рабочие инструменты.
Не очень понимаю, как он может помочь в преподавании, допустим, иллюстрации, но если мы говорим про цифровой дизайн, то благодаря ИИ можно быстро создавать референсы для обсуждения. Чтобы студенту показать какую-то штуку, которая только что тебе в голову пришла, её не надо искать, а можно будет прямо на ходу сгненерировать.
Или вот мой товарищ преподаёт языки, так он уникальные задания для студентов генерирует, причем с разбивкой на уровни знания языка! Это его инициатива, он придумал саму идею — и это не машина студентов учит, машина просто помогает преподавателю. А у него остаётся больше времени на идеи, на придумывание. Контроль за ситуацией, короче говоря, остаётся за человеком, и в этом цель развития экспертизы — чтобы понимать, хорошо или плохо у машины получилось то, что ей делегировали.
Будут меняться скорость, качество, ещё что-то, полагаю, но для изменений на фундаментальном уровне пока никаких предпосылок я не вижу. Мне кажется — а я достаточно давно за этой историей наблюдаю — что раньше, если мы говорим про генеративные нейросети, шла гонка за качеством. Раньше часто генерировались странные вещи, не очень приглядные. А сейчас мы в основном получаем то, что нас устраивает по качеству, и это буквально за пару лет произошло! Сначала сгенерированные изображения можно было легко вычислить и машинами, и человеческим глазом, а теперь уже нельзя. Значит, на уровне качества мы достигли какой-то планки. Можно ли сделать лучше? Можно, но никому не нужно.
Дальше, думаю, будут какие-то дополнительные вещи докручиваться. Например, с видео. Генерация видео идёт медленнее из-за физических ограничений, потому что мощностей для неё нужно в разы больше. Более скоростной процессор, больше графической памяти — этого просто надо ждать. Но если раньше картинка была, что называется, «кипящей», с таким характерным подёргиванием, то теперь научились это кипение убирать, и всё уже сильно лучше выглядит. То, что связано с 3D, тоже потихоньку развивается. Но есть тонкий момент: очень часто 3D — это на самом деле костыль, промежуточный этап для решения какой-то задачи, например, создания спецэффектов. И если мы используем 3D-модель для создания видео, возникает вопрос: а нужно ли нам в этом процессе вообще 3D? Можно же просто сгенерировать видео!
В целом ближайшее развитие ИИ мне видится в виде создания специфических инструментов под те или иные сферы деятельности. Есть такой сервис Scenario — они делают изображения для создания ассетов к 2D-видеоиграм. Вы создаёте новую игру, вам нужно 20 сундучков разных, но в одном стиле. И вы обучаете сервис нужному стилю и просите сгенерировать эти сундучки. Вот конкретное применение для конкретной отрасли! Или пример из иной области: есть нейросеть, которая делает сайты. В их редакторе можно собрать готовый сайт, практически рабочий. То, для чего раньше нанималось несколько человек, теперь делается сервисом с нейросетью. Сейчас именно в эту сторону всё идет. И, надо сказать, отношение к ИИ, как к чему-то ненужному и вредному, меняется. Это как с фотошопом — внедрили его как инструмент, и в целом нормально же оказалось! Никто не жалуется.
Это случилось лет 8-9 назад. Я тогда занимался цифровым дизайном и программированием, плюс у меня благодаря школе хорошая математическая база, и в целом это даёт интерес к алгоритмическому дизайну. То есть если понимаешь, что можно какие-то изображения создавать при помощи алгоритмов, то дальше идёшь изучать арабский мир: там, где запрещено изображать людей, очень сильно развиты орнаменты, а они по сути математические — и вот уже у тебя есть код, который создаёт изображение. А это автоматически помещает тебя в среду, в которой всё это обсуждается. Тогда всё это было тяжело применимо на практике и являлось уделом нишевого сообщества энтузиастов, которые толком не понимали, какой из этого выйдет смысл и толк, но которым это было очень интересно. Вообще в сфере IT всё всегда так. Я начинал в 2005-м, и тогда все эти web и digital казались чем-то ну очень странным. Полно было людей, которые не понимали, зачем нужны интернет-сайты ! И индустрия не была сильно денежной, и айтишники были просто какими-то фриками в глазах общества... Но мне повезло: тогдашнее странное увлечение позволило сейчас, когда это очень востребовано, удачно сконвертировать свои знания и умения.
Если же говорить о формальном образовании, то моя специальность согласно диплому — муниципальное управление, я чиновник, в РАНХиГС учился. В целом мне это помогает на самом деле — с точки зрения управления процессами и систематизации.
Пока не стоит. Почему? Да потому что мы имеем дело просто с программами, у которых нет мотивации что-то совершать. Пока, если брать биологические аналогии, всё это на уровне каких-то самых примитивных организмов, у которых есть только набор инстинктов для выживания, но нет сигнальной системы, чтобы эти инстинкты работали — как они работают у животных. Пока искусственный интеллект — это не более чем инструмент. Без человеческой воли он бесполезен.
16 августа на фестивале Signal Вадим Булгаков и Олег Пащенко проведут лекцию «Нечеловеческое искусство. Технологии за гранью: Как преодолеть зловещую долину и создать новое визуальное искусство ужаса».
Новый материал посвящëн знакомству с куратором II-го курса бакалавров профиля «UX/UI и frontend-разработка» Школы дизайна НИУ ВШЭ — Нижний Новгород Антоном Лариным, UX/UI-дизайнером, арт-директором в компании "Моризо".Что из себя представляет UX/UI и frontend-разработка? Почему важно развивать компетенции локальных специалистов? И в чём же главная миссия дизайна интерфейсов? На эти вопросы отвечает Антон в интервью .
Направление обучения
Это направление охватывает полный цикл разработки цифрового продукта и готовит специалистов, способных подключиться к процессу на любом из его этапов: от анализа рынка, создания дизайна и написания кода до запуска, продвижения и управления проектом.
В зависимости от своих планов на будущее, учащиеся могут выбрать образовательную траекторию, в большей степени сфокусированную на дизайне, кодинге или маркетинге. При этом все наши студенты, начиная с I курса, учатся работать с искусственным интеллектом и генеративными нейросетями.
Спасибо, вы успешно подписаны!
Извините, что-то пошло не так. Попробуйте позже.
Мы используем файлы cookies для улучшения работы сайта НИУ ВШЭ и большего удобства его использования. Более подробную информацию об использовании файлов cookies можно найти здесь, наши правила обработки персональных данных – здесь. Продолжая пользоваться сайтом, вы подтверждаете, что были проинформированы об использовании файлов cookies сайтом НИУ ВШЭ и согласны с нашими правилами обработки персональных данных. Вы можете отключить файлы cookies в настройках Вашего браузера.