Искусственный интеллект ускоряет усилия по выработке чистой энергии синтеза

Ученые применяют глубокое обучение — мощную новую версию формы машинного обучения искусственного интеллекта — для прогнозирования внезапных сбоев, которые могут остановить реакции синтеза и повредить токамаки в форме пончиков, в которых находятся реакции.

Искусственный интеллект (ИИ), отрасль информатики, которая трансформирует научные исследования и промышленность, теперь может ускорить разработку безопасной, чистой и практически безграничной энергии синтеза для выработки электроэнергии. Важный шаг в этом направлении делается в Принстонской лаборатории физики плазмы (PPPL) Министерства энергетики США (DOPL) и Принстонском университете, где группа ученых, работающих с аспирантом Гарварда, впервые применяет глубокое обучение — новая мощная версия ИИ для машинного обучения — для прогнозирования внезапных сбоев, которые могут остановить реакции синтеза и повредить токамаки в форме пончиков, в которых находятся реакции.

Перспективная новая глава в исследованиях фьюжн

«Это исследование открывает многообещающую новую главу в стремлении принести неограниченную энергию на Землю», — сказал Стив Коули, директор PPPL, о результатах, о которых сообщается в текущем номере журнала Nature. «Искусственный интеллект взрывается во всех науках, и теперь он начинает вносить вклад во всемирное стремление к силе синтеза».

Слияние, которое управляет солнцем и звездами, — это слияние легких элементов в форме плазмы — горячего заряженного состояния вещества, состоящего из свободных электронов и атомных ядер, — которое генерирует энергию. Ученые стремятся воспроизвести синтез на Земле для обильного запаса энергии для производства электроэнергии.

Крайне важным для демонстрации способности глубокого обучения прогнозировать сбои — внезапную потерю удержания частиц и энергии плазмы — был доступ к огромным базам данных, предоставленным двумя основными средствами синтеза: DIII-D National Fusion Facility, для которой работает General Atomics DOE в Калифорнии, крупнейшее предприятие в Соединенных Штатах, и Объединенный европейский Торус (JET) в Соединенном Королевстве, крупнейшее предприятие в мире, которым управляет EUROfusion, Европейский консорциум по развитию Fusion Energy. Поддержка со стороны ученых из JET и DIII-D была необходима для этой работы.

Обширные базы данных позволили надежно прогнозировать сбои в токамаках, отличные от тех, на которых обучалась система — в данном случае от меньшего DIII-D к большему JET. Это достижение предвещает предсказания сбоев в ИТЭР, гораздо большем и мощном токамаке, который должен будет применять возможности, полученные на современных термоядерных установках.

Код глубокого обучения, называемый Fusion Recurrent Neural Network (FRNN), также открывает возможные пути для контроля и прогнозирования сбоев.

Наиболее интригующая область научного роста

«Искусственный интеллект — самая интригующая область научного роста в настоящее время, и объединить его с наукой синтеза очень волнительно», — сказал Билл Танг, главный физик-исследователь в PPPL, соавтор статьи и лектор с рангом и званием профессора. в отделе астрофизических наук Принстонского университета, который курирует проект ИИ. «Мы ускорили возможность предсказывать с высокой точностью самую опасную задачу по очистке энергии синтеза».

В отличие от традиционного программного обеспечения, которое выполняет предписанные инструкции, глубокое обучение учится на своих ошибках. В этом кажущемся волшебстве реализованы нейронные сети, слои взаимосвязанных узлов — математических алгоритмов, которые «параметризуются» или взвешиваются программой для формирования желаемого результата. Для любого заданного ввода узлы стремятся произвести определенный вывод, такой как правильная идентификация лица или точные прогнозы нарушения. Обучение начинает действовать, когда узлу не удается выполнить эту задачу: веса автоматически подстраиваются под свежие данные, пока не будет получен правильный вывод.

Ключевой особенностью глубокого обучения является его способность собирать многомерные, а не одномерные данные. Например, в то время как программное обеспечение для глубокого обучения может учитывать температуру плазмы в один момент времени, FRNN рассматривает профили температуры, развивающейся во времени и пространстве. «Способность методов глубокого обучения учиться на таких сложных данных делает их идеальным кандидатом для задачи прогнозирования сбоев», — сказал сотрудник Джулиан Кейтс-Харбек, аспирант-физик в Гарвардском университете и аспирант кафедры наук вычислительной науки Министерства энергетики США. Сотрудник, который был ведущим автором газеты Nature и главным архитектором кодекса.

Обучение и запуск нейронных сетей основаны на графических процессорах (GPU), компьютерных чипах, впервые разработанных для рендеринга трехмерных изображений. Такие чипы идеально подходят для запуска приложений глубокого обучения и широко используются компаниями для создания возможностей ИИ, таких как понимание разговорного языка и наблюдение за дорожными условиями на автомобилях с автоматическим управлением.

Кейтс-Харбек обучила код FRNN более чем двум терабайтам (1012) данных, собранных из JET и DIII-D. После запуска программного обеспечения на кластере современных графических процессоров Tiger Принстонского университета команда установила его на Titan, суперкомпьютере в Oak Ridge Leadership Computing Facility, DOE Office of Science User Facility и других высокопроизводительных компьютерах.

Сложная задача

Распределение сети по многим компьютерам было сложной задачей. «Обучение глубоких нейронных сетей — это сложная вычислительная проблема, требующая участия высокопроизводительных вычислительных кластеров», — сказал Алексей Святковский, соавтор газеты Nature, которая помогла преобразовать алгоритмы в производственный код и теперь работает в Microsoft. «Мы поместили копию всей нашей нейронной сети на многие процессоры, чтобы добиться высокоэффективной параллельной обработки», — сказал он.

Программное обеспечение также продемонстрировало свою способность прогнозировать истинные сбои в течение 30-миллисекундного периода времени, который потребуется ITER, при одновременном снижении количества ложных срабатываний. Код в настоящее время приближается к требованию ITER о 95-процентных правильных предсказаниях с менее чем 3-процентным ложным срабатыванием. В то время как исследователи говорят, что только живая экспериментальная операция может продемонстрировать достоинства любого прогнозирующего метода, в их работе отмечается, что большие архивные базы данных, используемые в прогнозах, «охватывают широкий спектр операционных сценариев и, таким образом, предоставляют существенные доказательства относительно сильных сторон методы, рассмотренные в этой статье."

От прогноза к контролю

Следующим шагом будет переход от прогнозирования к контролю сбоев. «Вместо того, чтобы прогнозировать сбои в последний момент и затем смягчать их, мы в идеале использовали бы будущие модели глубокого обучения, чтобы мягко увести плазму от областей нестабильности с целью в первую очередь избежать большинства сбоев», — сказал Кейтс-Харбек. Подчеркивает этот следующий шаг Майкл Зарнсторф, который недавно перешел от заместителя директора по исследованиям в PPPL к главному научному сотруднику лаборатории. «Контроль будет важен для токамаков после ИТЭР, в которых предотвращение нарушений будет существенным требованием», — отметил Зарнсторф.

Переход от точных прогнозов с помощью ИИ к реалистичному контролю плазмы потребует более одной дисциплины. «Мы объединим глубокое обучение с основами, основанными на принципах физики на высокопроизводительных компьютерах, чтобы сосредоточиться на реалистичных механизмах управления горящей плазмой», — сказал Тан. «Под контролем нужно понимать, какие« ручки для поворота »на токамаке изменяют условия, чтобы предотвратить сбои. Это в наших глазах, и это то, к чему мы стремимся».

Поддержка в этой работе осуществляется программой стипендий для выпускников Департамента энергетики, вычислительной науки, Управления науки Министерства энергетики США и Национальной администрации по ядерной безопасности; из Института вычислительной науки и техники Принстонского университета (PICsiE); и из фондов исследований и разработок, направленных лабораторией, которые предоставляет PPPL. Авторы хотели бы поблагодарить Билла Вихсера и Курта Хиллегаса за высокопроизводительную суперкомпьютерную работу в PICSciE; Джек Уэллс в Оук-Риджском центре компьютерных технологий; Сатоши Мацуока и Рио Йоката из Токийского технологического института; и Том Гиббс в NVIDIA Corp.