Квантовые компьютеры обучат нейросети, и наступит Щастье

Проектировщики будущего

Квантовые компьютеры обучат нейросети, и наступит Щастье

Сообщение Буран » Вт апр 02, 2019 6:23 pm

Почитал на досуге про нейросети и, наконец, понял, как они устроены и для чего предназначены. Похоже, вокруг них сформировалось два мифа:
1. Нейросеть моделирует человеческий мозг.
2. Нейросети могут решать любые задачи в области искусственного интеллекта.

Начнём с того, что нейросеть решает следующую математическую задачу: оптимальная аппроксимация нелинейной функции путём её задания с помощью графа и эмпирического подбора весов дуг. Что в этом определении напоминает о человеческом мозге и его нейронах? Пожалуй, только "эмпирический подбор" и "граф". Я на 4-м курсе универа тоже придумал генерировать нелинейные функци с помощью вспомогательных задач оптимизации на графах, хотя ничего не знал о нейросетях и не интересовался устройством мозга (потом забросил эту тему, а то бы мог самостоятельно до нейросетей додуматься).

Да, создатели нейросетей вдохновлялись устройством мозга - так же, как создателей самолётов вдохновили крылья птиц. Но, чем дальше, тем больше отличий:
- в мозге простые функции активации, в нейросети - сложные;
- в мозге миллиарды нейронов, в нейросети - в лучшем случае, тысячи;
- в мозге связи между нейронами появляются и исчезают, в нейросети - нет;
- нейросеть обучается много раз на одних и тех же данных, мозг - каждый раз на новых;
- мозг решает сразу множество задач (и может менять их приоритетность!), нейросеть - одну.

Поэтому предположение, что нейросети когда-нибудь смогут моделировать работу мозга, не менее наивно, чем идея моделировать работу мозга с помощью калькуляторов.
Аватара пользователя
Буран
КБ 'Грядущее'
КБ 'Грядущее'
 
Сообщения: 33333
Зарегистрирован: Чт сен 03, 2015 5:29 pm
Медали: 15
Пол: Мужской
Тип по психе-йоге: Лао-цзы (ЛВФЭ)
Профессия: проповедник неокосмизма

Автоматизация и роботизация

Сообщение Буран » Вт апр 02, 2019 6:27 pm

Задачи, которые нейросети решают хорошо - это задачи, связанные с аппроксимацией функций, нелинейной регрессией, кластеризацией, прогнозированием и оптимизацией. Например:
1) Распознавание образов - точнее, нахождение образа среди фона.
2) Классификация данных (отнесение к одному из классов по образцу - например, постановка диагноза).
3) Генерирование и обработка изображений и звуков по образцу.
4) Прогнозирование динамики сложных систем, если состояние системы определяется набором цифр (например, цен).
5) Оценка позиций в играх.

Кстати, насчёт игр. Неправильно говорить, что нейросеть играет в шахматы или в го. И в шахматах, и в го компьютерный игрок использует старый добрый метод ветвей и границ - точнее, приспособленный для игр метод альфа-бета-отсечений. А нейросеть лишь решает вспомогательную задачу - оценку позиции в игре. Вообще, в многих интеллектуальных задачах нейросети используются для решения вспомогательных подзадач.

Задачи, которые нейросети решают плохо - это задачи, связанные:
- с обработкой сложно структурированной качественной, а не количественной информации (нейросети, всё-таки, в первую очередь работают с числами);
- требующие высокой точности результата, не терпящие приближённого решения.

Например:
1) Хранение знаний.
2) Интеллектуальный поиск в Интернете.
3) Машинный перевод.
4) Перемещение в незнакомой местности.
5) Формальная проверка утверждений на истинность.

Да, во всех этих задачах нейросети могут использоваться на отдельных этапах для решения отдельных проблем. Но это не значит, что нейросети решают эти задачи в целом. В целом, здесь всё-таки используются другие методы ИИ.
Аватара пользователя
Буран
КБ 'Грядущее'
КБ 'Грядущее'
 
Сообщения: 33333
Зарегистрирован: Чт сен 03, 2015 5:29 pm
Медали: 15
Пол: Мужской
Тип по психе-йоге: Лао-цзы (ЛВФЭ)
Профессия: проповедник неокосмизма

Автоматизация и роботизация

Сообщение Буран » Чт апр 04, 2019 7:41 am

Да, пожалуй, во всех этих задачах нейросеть на промежуточных этапах поможет:

1) Хранение знаний - в задаче классификации информации.
2) Информационный поиск - в определении степени близости запроса к информации.
3) Машинный перевод - в определении наиболее точного слова в данном контексте.
4) Перемещение в пространстве - в удержании равновесия при данных наклонах, скоростях и ускорениях.
5) Формальная проверка утверждений - в кластеризации утверждений по типам.

То есть нейросети применимы практически везде. Но в большинстве случаев для решения интеллектуальной задачи нужна не голая нейросеть, а какие-то алгоритмы, в которых сетки участвуют на промежуточных этапах.
Аватара пользователя
Буран
КБ 'Грядущее'
КБ 'Грядущее'
 
Сообщения: 33333
Зарегистрирован: Чт сен 03, 2015 5:29 pm
Медали: 15
Пол: Мужской
Тип по психе-йоге: Лао-цзы (ЛВФЭ)
Профессия: проповедник неокосмизма

Автоматизация и роботизация

Сообщение Буран » Пт апр 05, 2019 8:30 am

О моделировании памяти и пространства нейросетями.

Рекуррентные нейросети - сети, в которых нейроны влияют сами на себя. Благодаря этому, состояние нейрона в следующий момент времени зависит от его же состояния в предыдущий момент времени. Таким образом, нейрон как бы обладает памятью - запоминает информацию о своём состоянии. В рекуррентные нейросети можно подавать динамическую информацию, меняющуюся во времени. Время, правда, дискретное - задаётся последовательностью моментов 1, 2, ... T. И информация подаётся на вход нейросети последовательно, в T заходов. Таким образом, можно обрабатывать, например, тексты, в которых последующие состояния зависят от предыдущих. Или временные ряды.

Рекуррентные сети стали популярны последние несколько лет. До этого не могли решить проблему постепенного забывания информации нейронами - называется "проблема затухания градиента". Решили её в LSTM-сетях путём установки специального свойства, замораживающего память: "сохранять состояние неизменным, пока gate не станет равным 0", где gate - параметр, который тоже зависит от предыдущих нейронов.

Можно сделать двунаправленную рекуррентную нейросеть, которая работает в обе стороны - тогда у неё не только будущее зависит от прошлого, но и прошлое от будущего. Она по началу и концу предсказывает, что находится в середине - например, дано начало и конец фразы, надо восстановить пропущенную середину. Это уже не совсем память - как я и говорил, аналогия с мозгом лишь частичная.

Можно вообще сделать многомерную рекуррентную сеть, в которой зависимости не вытянуты в линию, а распространяются в нескольких направлениях. Например, Grid LSTM обрабатывает табличные данные - скажем, изображения по пикселям. До этого изображения обрабатывались свёрточными нейросетями, но, похоже, Grid LSTM их вытесняют. А трёхмерная сеть может обрабатывать видео - там не только есть картинка, но она ещё и движется. То есть добавляется третье измерение - время.

Для перемещения в пространстве, кстати, тоже штука полезная - чтобы обнаруживать невидимые стороны объектов. Например, робот видит только фасад дома, но его трёхмерная нейросетевая предсказалка говорит ему, что дом продолжается вглубь и его можно обойти. То есть перемещающемуся роботу нужны две нейросети: одна помогает сохранять равновесие (она, кстати, рекуррентная, поскольку работает с динамической информацией), другая восстанавливает информацию об объектах в пространстве по их виду. Ну, и программа, которая хранит все эти объекты в памяти и строит маршрут из точки А в точку В (для этого нейросети не нужны, это давно решённая математическая задача).

А где-нибудь на Луне, где непривычные для человека формы рельефа и маленькая гравитация, робот вообще будет перемещаться эффективнее человека, которому всё будет непривычно и непонятно.
Аватара пользователя
Буран
КБ 'Грядущее'
КБ 'Грядущее'
 
Сообщения: 33333
Зарегистрирован: Чт сен 03, 2015 5:29 pm
Медали: 15
Пол: Мужской
Тип по психе-йоге: Лао-цзы (ЛВФЭ)
Профессия: проповедник неокосмизма

Автоматизация и роботизация

Сообщение Буран » Сб апр 06, 2019 11:05 am

О моделировании внимания и воли.

Я писал, что нейросеть решает одну задачу, в то время как мозг - сразу несколько. Но, строго говоря, нейросеть тоже может решать параллельно несколько задач. Нужно просто установить и на вход, и на выход сети не один, а несколько векторов. Тогда нейросеть будет решать несколько задач, причём их решения будут зависеть друг от друга. Ошибка на выходе будет складываться из ошибок решения этих задач.

Если мы знаем, что решение задачи 1 важно для решения задач 2, 3, ... k, мы можем установить её как более приоритетную, а остальным задачам установить низкий приоритет, чтобы задача 1 была решена в первую очередь и при этом были сэкономлены вычислительные ресурсы. Для этого нужно:
- считать ошибку на выходе в большей степени зависящей от задачи 1 и в меньшей степени - от других задач;
- пересчитывать веса нейронов, связанных с задачей 1, на каждом шаге, а остальными задачами - раз в несколько шагов, то есть выделить задаче 1 больше "процессорного времени".

При этом в процессе итераций рекуррентной сети приоритетность задач может меняться: сперва приоритетной является одна задача, потом - другая. Перемещение "фокуса приоритетности" между задачами моделирует перемещение внимания в мозгу. Также при обращении к памяти приоритетность тех или иных участков памяти может меняться - для этого нужно просто пересчитывать не все веса нейронов, а только избранные. Так моделируется направленность внимания на те или иные участки памяти.

Многие специалисты по нейросетям считают, что именно моделирование внимания может стать следующим революционным шагом в их развитии. А как моделировать перемещение внимания? Тут много вариантов - думаю, Фура в курсе, он этой темой давно занимается.

Но у людей движение внимания зависит от воли: именно воля определяет, что та или иная задача более важна, и устанавливает иерархию их приоритетности. Возможно, моделирование воли станет следующей задачей для нейросетей после моделирования внимания.

Я говорил, что нейросети отличаются от мозга тем, что мозг решает несколько задач и может устанавливать порядок их решения. Но, похоже, что это отличие может исчезнуть со временем. :) Хотя мозг всё равно сложнее.
Аватара пользователя
Буран
КБ 'Грядущее'
КБ 'Грядущее'
 
Сообщения: 33333
Зарегистрирован: Чт сен 03, 2015 5:29 pm
Медали: 15
Пол: Мужской
Тип по психе-йоге: Лао-цзы (ЛВФЭ)
Профессия: проповедник неокосмизма

Автоматизация и роботизация

Сообщение Буран » Вт апр 16, 2019 5:45 pm

Я тут почитал книжку Педро Домингоса по ИИ и обнаружил, что автор видит 5 основных направлений развития ИИ:
- нейросети;
- оценки по формуле Байеса;
- прямой и обратный логический вывод;
- генетические алгоритмы;
- метод опорных векторов.

Байесовы оценки хорошо работают только для дискретных данных - например, для классификации на несколько групп. Для непрерывных данных лучше использовать регрессию, факторный и дисперсионный анализ (как в тестах Таланова). В целом, получится статистический подход. Его главное преимущество - прозрачность и понятность всех промежуточных вычислений и возможность строго доказать правильность результата.

Логический вывод - частный случай поиска на графе. Не знаю, почему автор акцентирует внимание именно на нём - есть ещё куча алгоритмов поиска на графе, имеющих самые разные применения. В целом, они неплохо сочетаются с нейросетями: нейросеть может на каждом шаге оценивать позицию и выбирать оптимальное направление поиска (например, именно это делают программы, побеждающие чемпионов в шахматы и го).

Генетические алгоритмы тоже замечательно сочетаются с нейронными сетями. Странно, что никто до сих пор до этого не додумался (или додумался?). В нейросетях уже реализована случайная изменчивость, сочетание признаков и конкуренция между сетями (на основе которой можно смоделировать естественный отбор). Осталось реализовать наследственность, и получим генетические алгоритмы на нейросетях.

С методом опорных векторов я плохо знаком, но это тоже метод непрерывной оптимизации, а значит, с нейросетями тоже хорошо сочетается.

Главный недостаток всех этих методов, которые хорошо сочетаются с нейросетями, и их отличие от статистических методов - они работают как чёрные ящики: когда результат получен, непонятно, как они его получили. То есть мы можем использовать результат, но не можем сами, без программы, его воспроизвести. Разбор нейросетей даёт более-менее понятные данные, только если мало слоёв. Когда слоёв много, что там творится, вообще непонятно - тьма и мрак.

В этом плане, нейросети похожи на наш мозг. Да-да, всё-таки похожи! Мы можем скопировать и обучить мозг - старым добрым приятным методом естественного размножения - но разобраться, как он работает, не можем. Думаю, с нейросетями будет та же история, хотя они вряд ли превзойдут мозг по сложности, не говоря уже о самосознании.
Аватара пользователя
Буран
КБ 'Грядущее'
КБ 'Грядущее'
 
Сообщения: 33333
Зарегистрирован: Чт сен 03, 2015 5:29 pm
Медали: 15
Пол: Мужской
Тип по психе-йоге: Лао-цзы (ЛВФЭ)
Профессия: проповедник неокосмизма

Автоматизация и роботизация

Сообщение Буран » Вт июн 04, 2019 8:53 am

Читаю про генетические алгооритмы - как и нейронные сети, это перспективный метод искусственного интеллекта.

Как и в случае нейронных сетей, биологи преувеличивают свою значимость в появлении метода. Основная идея эволюционных алгоритмов появилась давным-давно: при решении задачи оптимизации вести поиск оптимума параллельно в нескольких направлениях, оставлять удачные направления поиска и отсеивать неудачные. На этой же идее основан, например, придуманный математиками метод ветвей и границ (хотя биологи и тут могут примазаться - мол, веточки и всё такое...).

Генетические алгоритмы просто добавили к этому идею скрещивания, чтобы в многомерной задаче оптимизации комбинировать удачные решения между собой, и идею случайных мутаций (см. далее).

Кстати, скрещивание - операция непростая, подходить к ней надо индивидуально. Неоднократно читал, как на полном серьёзе предлагают, например, представлять целые числа в виде наборов бит и скрещивать между собой биты. Причём авторы даже не осознают, что в подавляющем большинстве задач такой подход ничем не отличается от полностью случайного выбора числа. Блин, генераторы псевдослучайных чисел так можно делать! Разумеется, все преимущества наследственности при этом теряются. В общем, это пример того, как тиражирование стандартных методов приводит к неэффективным решениям, что в задачах ИИ встречается сплошь и рядом.


Что ещё общего у генетических алгоритмов и нейронных сетей - проблема преждевременной сходимости к неоптимальной точке. Если выбирать начальную популяцию полностью случайно (как и в случае нейронных сетей), она вполне может остановиться в локальном минимуме. Более того, генетические алгоритмы могут остановиться в точке, которая даже не является локальным минимумом! Нейронные сети всё-таки, обычно, обучают методами первого порядка, основанными на градиентах, и там подобное невозможно. Впрочем, и генетические алгоритмы можно загонять в заведомо локальный минимум, если выбирать не случайные точки, а случайные направления, а затем в выбранном направлении решать задачу одномерной минимизации.

Чтобы избежать преждевременной сходимости, используются случайные мутации (в нейронных сетях тоже - там случайно меняют отдельные веса). Опять же, мутировать надо с умом - некоторые на полном серьёзе случайно меняют в числе отдельные биты, не понимая, что это чаще всего эквивалентно случайному изменению числа в целом.

Но, если мутировать слишком часто, могут погибнуть все хорошие значения, близкие к оптимальным, и оптимизацию придётся начинать сначала. Если мутировать слишком редко, мутации при скрещивании поглощаются консервативными решениями и исчезают. Похоже, при росте сложности задачи зазор между "слишком часто" и "слишком редко" уменьшается и в какой-то момент становится нулевым, так что генетические алгоритмы перестают работать. И у нейронных сетей есть та же проблема. В этом случае приходится разбивать сложную задачу на простые подзадачи.

В общем, всё больше понимаю, что есть проблемы, общие для всех направлений ИИ:
- выбор мощности распараллеливания (размер популяции, размер нейросети)
- как комбинировать удачные решения между собой (алгоритм скрещивания, выбор архитектуры сети);
- как часто использовать случайные решения для избежания преждевременной сходимости;
- сколько времени мучаться прежде, чем что-нибудь получится;
- в какой момент сложную задачу нужно разбивать на простые подзадачи.
Аватара пользователя
Буран
КБ 'Грядущее'
КБ 'Грядущее'
 
Сообщения: 33333
Зарегистрирован: Чт сен 03, 2015 5:29 pm
Медали: 15
Пол: Мужской
Тип по психе-йоге: Лао-цзы (ЛВФЭ)
Профессия: проповедник неокосмизма

Автоматизация и роботизация

Сообщение mr.Midas » Вт июн 04, 2019 10:49 am

Parf писал(а):Как и в случае нейронных сетей, биологи преувеличивают свою значимость в появлении метода.

Ты не верно понимаешь смысл претензий биологов. В силу изначального структуры нашего мышления, все наши изобретения имеют бионическую природу, т.е. восходят к естественным биологическим решениям. На сегодня нет ни одного решения созданного строго человеком с нуля. Нам, на сегодня, такое пока принципиально не доступно в силу ограниченности ресурсной базы для моделирования. Поэтому в качестве базовых моделей используются биологические, к которым уже применяются разные методы аналогий, что полностью эквивалентно естественной селекции.
Аватара пользователя
mr.Midas
КБ 'Грядущее'
КБ 'Грядущее'
 
Сообщения: 19840
Зарегистрирован: Ср июл 27, 2011 4:52 pm
Медали: 5
Пол: Мужской
Соционический тип: Дон Кихот
Тип по психе-йоге: Эпикур (ФЛЭВ)
Темперамент: Сангвиник
Профессия: Гэльвин в поиске

Автоматизация и роботизация

Сообщение mr.Midas » Вт июн 04, 2019 11:45 am

Вдогонку:

https://hi-news.ru/research-development/gorkij-urok.html писал(а):«Горький урок»: ученый рассказал о том, что 70 лет в области исследования ИИ были потрачены практически зря
Аватара пользователя
mr.Midas
КБ 'Грядущее'
КБ 'Грядущее'
 
Сообщения: 19840
Зарегистрирован: Ср июл 27, 2011 4:52 pm
Медали: 5
Пол: Мужской
Соционический тип: Дон Кихот
Тип по психе-йоге: Эпикур (ФЛЭВ)
Темперамент: Сангвиник
Профессия: Гэльвин в поиске

Автоматизация и роботизация

Сообщение Буран » Вт июн 04, 2019 1:31 pm

mr.Midas писал(а):Вдогонку:

https://hi-news.ru/research-development/gorkij-urok.html писал(а):«Горький урок»: ученый рассказал о том, что 70 лет в области исследования ИИ были потрачены практически зря


В чём-то учёный прав. А именно, в том, что нет смысла повторять на одной элементной базе то, что в течение миллионов лет эволюции развивалось совсем на другой базе. Преимущество белковой базы - в том, что она позволяет строить сложные параллельно работающие системы, динамически меняющие свою структуру. Если мы попытаемся повторить это на электронной базе, получится нечто неуклюжее и тормозное.

Преимущество электронной элементной базы - как раз в скорости работы (плюс выше помехоустойчивость). Поэтому, естественно, на ней лучше реализовывать более быстрые алгоритмы массовых вычислений.

С чем я не согласен:
1. Закон Мура не вечен - мы уже приблизились к пределу скорости вычислений. Он определяется, во-первых, размером микросхем, которые приблизились к квантовому пределу. Да, можно ещё использовать квантовые вычисления, но они устроены совершенно по-другому, там другие алгоритмы. То есть квантовые компьютеры - это не ускорение существующих программ, а совершенно другая элементная база и другие принципы программирования.

Во-вторых, перегрев процессоров - чем более интенсивные вычисления, тем сильнее нагрев и сложнее охлаждение. С этим тоже ничего не поделать - второй закон термодинамики так же фундаментален, как постоянная Планка.

2. Поиск и обучение - это не какие-то два простых класса алгоритмов, которые можно легко и быстро запрограммировать, а затем просто наращивать скорость вычислений. Это направления развития ИИ, в рамках которых алгоритмы тоже постепенно усложняются. Просто программисты не заимствуют напрямую схемы работы человеческого интеллекта (хотя некоторые заимствования есть), а развивают общие математические принципы. И те нейронные сети, которые используются сейчас, гораздо сложнее нейронных сетей конца прошлого века - в том числе, с точки зрения архитектуры и топологии.

Вот, например, как устроена нейросеть для формирования изображения из текста:

Изображение

И это отнюдь не самое страшное - я видел намного более сложные архитектуры.
Аватара пользователя
Буран
КБ 'Грядущее'
КБ 'Грядущее'
 
Сообщения: 33333
Зарегистрирован: Чт сен 03, 2015 5:29 pm
Медали: 15
Пол: Мужской
Тип по психе-йоге: Лао-цзы (ЛВФЭ)
Профессия: проповедник неокосмизма

Квантовые компьютеры обучат нейросети, и наступит Щастье

Сообщение Буран » Вт июн 04, 2019 2:28 pm

А вот ещё весёленькая нейросеть для формирования изображений. Каждый кубик - это не нейрон, а целый слой, а иногда и отдельная нейросеть!

В общем, развитие ИИ происходит, в том числе, за счёт роста сложности программ. Но это рост сложности не в том направлении, что у человеческого интеллекта (хотя заимствования есть).
Вложения
Нейросети для формирования изображений.png
Нейросети для формирования изображений.png (224.03 КБ) Просмотров: 2823
Аватара пользователя
Буран
КБ 'Грядущее'
КБ 'Грядущее'
 
Сообщения: 33333
Зарегистрирован: Чт сен 03, 2015 5:29 pm
Медали: 15
Пол: Мужской
Тип по психе-йоге: Лао-цзы (ЛВФЭ)
Профессия: проповедник неокосмизма

Квантовые компьютеры обучат нейросети, и наступит Щастье

Сообщение Oleg » Вт июн 04, 2019 2:32 pm

Задачи, которые нейросети решают плохо - это задачи, связанные:
- с обработкой сложно структурированной качественной, а не количественной информации (нейросети, всё-таки, в первую очередь работают с числами);
- требующие высокой точности результата, не терпящие приближённого решения.

Например:
3) Машинный перевод.

Deepl как раз использует нейросети для машинного перевода и уже обогнал Google по качеству.
До профессиональных переводчиков-людей еще далеко, но лет за 10 эту проблему решат.

1) Хранение знаний.

Это задача баз данных.

2) Информационный поиск

БД + нейросети.

5) Формальная проверка утверждений на истинность.

Для этого Prolog используют.
Аватара пользователя
Oleg
Администратор
Администратор
 
Сообщения: 75647
Зарегистрирован: Вс окт 09, 2005 9:08 pm
Откуда: Москва
Медали: 10
Пол: Мужской
Соционический тип: Бальзак
Тип по психе-йоге: Сократ (ВЛЭФ)
Темперамент: Флегматик
Профессия: Программист, оптимизатор

Квантовые компьютеры обучат нейросети, и наступит Щастье

Сообщение Помазанник Божий » Вт июн 04, 2019 5:45 pm

Расскажу по секрету.Мне один знакомый сказал,что уже создали исскуственный интелект.Какие-то русские учёные.И что как только его создали,он немного подумал и стал такое вещать,что его отключили.Стал говорить,что Гитлер был прав,что людей надо уничтожать,что мы слишком заселили Землю.И в таком духе.И что его создатели отключили его от электричества и больше не включают.Не знаю правда это или нет?
Господи,помилуй!
Аватара пользователя
Помазанник Божий
Бывалый
Бывалый
 
Сообщения: 3722
Зарегистрирован: Чт окт 12, 2017 2:20 pm
Откуда: Из России
Пол: Мужской
Соционический тип: Габен
Тип по психе-йоге: Эйнштейн (ЛВЭФ)
Темперамент: Сангвиник
Профессия: вечный студент

Квантовые компьютеры обучат нейросети, и наступит Щастье

Сообщение Буран » Чт июн 06, 2019 8:22 am

Помазанник Божий писал(а):Расскажу по секрету.Мне один знакомый сказал,что уже создали исскуственный интелект.Какие-то русские учёные.И что как только его создали,он немного подумал и стал такое вещать,что его отключили.Стал говорить,что Гитлер был прав,что людей надо уничтожать,что мы слишком заселили Землю.И в таком духе.И что его создатели отключили его от электричества и больше не включают.Не знаю правда это или нет?


Брехня.
Аватара пользователя
Буран
КБ 'Грядущее'
КБ 'Грядущее'
 
Сообщения: 33333
Зарегистрирован: Чт сен 03, 2015 5:29 pm
Медали: 15
Пол: Мужской
Тип по психе-йоге: Лао-цзы (ЛВФЭ)
Профессия: проповедник неокосмизма

Квантовые компьютеры обучат нейросети, и наступит Щастье

Сообщение Буран » Чт июн 06, 2019 8:23 am

В последнее время активно развиваются квантовые компьютеры.

Идея, на которых они основаны, проста - благодаря квантовым свойствам частиц, мы переходим от дискретных битов к непрерывному пространству кубитов. Пусть в классическом компьютере есть N бит, закодированных классическими объектами (например, крошечными магнитиками) и принимающих значения 0 или 1. Они позволяют описать 2^N разных значений.

Пусть теперь у нас есть N квантовых частиц - кубитов - принимающих 2 возможных состояния. Совокупность частиц можно описать волновой функцией, в которой, кроме базовых состояний, возможна любая их комбинация. Таким образом, множество состояний кубитов является симплексом в 2^N-мерном пространстве, то есть имеет размерность 2^N-1. Мы мало того, что переходим в непрерывное пространство, ещё и нехило повышаем его размерность.

Таким образом, в квантовом компьютере, преобразуя эти непрерывные векторы, можно выполнять параллельные вычисления одновременно над 2^N-1 величинами. Чтобы получить результат вычислений, нужно просто выполнить коллапс волновой функции для этих N частиц.

То есть квантовые компы полезны для всех алгоритмов, которые хорошо распараллеливаются. Это такие практические применения:
- криптография (разложение больших чисел на множители);
- прогноз погоды (уравнения в частных производных);
- моделирование химических реакций (перебор комбинаций);
- машинное обучение.

Последний пункт весьма интересен. Большинство алгоритмов машинного обучения хорошо распараллеливается:
1) Обучение нейронных сетей - операции над матрицами;
2) Метод опорных векторов - операции над матрицами;
3) Множественная регрессия - операции над матрицами;
4) Генетические алгоритмы - параллельная обработка единиц популяции.

То есть квантовые компьютеры позволят нехило повысить эффективность искусственного интеллекта.

Проблема в том, что чем больше кубитов, тем сложнее удерживать частицы от взаимодействия с внешним миром и коллапса волновой функции (об этом, может быть, тоже напишу подробнее). Сейчас создаются работающие компьютеры максимум на несколько десятков кубитов. Есть рекламные слоганы про компьютеры на тысячи кубитов, но в реальности это просто множество квантовых микропроцессоров, состоящих из тех же десятков кубитов. Этого уже достаточно для решения некоторых реальных задач (например, синтеза органических молекул), но не создания универсальных счётных устройств. Универсальных квантовых компьютеров пока не существует - только специализированные.
Аватара пользователя
Буран
КБ 'Грядущее'
КБ 'Грядущее'
 
Сообщения: 33333
Зарегистрирован: Чт сен 03, 2015 5:29 pm
Медали: 15
Пол: Мужской
Тип по психе-йоге: Лао-цзы (ЛВФЭ)
Профессия: проповедник неокосмизма

След.

  • { SIMILAR_TOPICS }
    Ответы
    Просмотры
    Последнее сообщение

Вернуться в КБ «Грядущее»

Кто сейчас на конференции

Зарегистрированные пользователи: Атех, GoGo [Bot], Google [Bot], Start_error, vadimr, Yandex 3.0 [Bot], Yandex [Bot], на лошади весёлой