НовостиОбзорыСобытияIT@WorkРеклама
Идеи и практики автоматизации:

Блог

Сколь велик сегодня искусственный интеллект?

Оцениваем потенциальные тематические риски.

В продолжение разбора покупки Гуглем AI-стартапа DeepMind
http://www.pcweek.ru/idea/blog/idea/6343.php [spoiler]

Стоит отметить, что лидеры DeepMind отлично осведомлены о потенциале технологической сингулярности. Вот научный труд одного из основателей этого стартапа, математика Shane Legg, на тему о машинном суперинтеллекте, избравшего в качестве эпиграфа цитату из книги Ричарда Докинза "Бог как иллюзия".
http://www.vetta.org/documents/Machine_Super_Intelligence.pdf

Несложно найти заброшенный блог Shane http://www.vetta.org/ где он проявляется однозначным "активистом" движения сингуляристов, регулярно участвовал в тусовке рационалистов Юдковского LessWrong (переводы на lesswrong.ru). Еще в конце 2011-го Shane, в частности, полагал, что AGI появится в промежуток 2025-2028 (не после контактов ли с ним в Гугле Курцвейл так изменил свои взгляды?), и спрогнозировал, что уже в текущем десятилетии появится прототип AGI -- система с базовыми функциями зрения, обработки звука-речи, самостоятельно передвигающаяся, способная общаться на естественном языке -- а самое главное, что всем этим вещам она будет учиться самостоятельно, а не реализовывать запрограммированные функции.

Его оценки потенциальных рисков AI:
http://lesswrong.com/lw/691/qa_with_shane_legg_on_risks_from_ai/
Вероятность создания AGI: 10%, 50%, 90% - 2018, 2028, 2050.
AI он назвал риском текущего столетия номер один.

Подозрение, что полмилллирада долларов Гугль заплатил не столько за технологии DeepMind, сколько за мозг Shane, который утешает нас так: "если суперинтеллект вздумает в конечном итоге избавиться от человечества, то он сделает это очень быстро и эффективно".
http://www.huffingtonpost.com/2014/01/29/google-ai_n_4683343.html

А что сегодня происходит в мире классического искусственного интеллекта AI, который, впрочем, на глазах сдвигается в сторону AGI после немеряных коммерческих инвестиций Google и др.?
IEEE Computational Intelligence Society насчитывает 7 тыс. членов -- это 8% от общей численности IEEE Computer Society. По оценкам Bureau of Labor Statistics, в США работает 27 тыс. специалистов по ИИ. В ACM Special Interest Group on Artificial Intelligence -- тысяча членов, в International Neural Network Society в два раза больше. Из 1360 компьютерных изданий, учтенных Microsoft Academic Search, 8-13% относятся к AI. Процент публикаций на тему (около-)AI также стабилен уже много лет: 10-20%. Но в абсолютных цифрах в период 1995-2010 он увеличивается на 50% каждые пять лет. Доля AI-конференций -- 16% от всех айтишных.  13% призов ACM Turing Award приходится на AI-тематику. В 2011-м National Science Foundation с годовым бюджетом 636 млн. долл. выделил $169 млн. на Information and Intelligent Systems, где направление Robust Intelligence получило примерно 10% бюджета NSF (ежегодно подрастая на 5%).

Вот несколько свежих примеров деятельности AI-ученых этого года.

Andre Platzer, профессор из Карнеги-Меллона, специализируется на инструметах формальной верификации кибер-физических систем. Его система KeYmaera используется для исключения коллизий в Европейской системе управления транспортом.
http://symbolaris.com/info/ETCS.html
В ней используется некая differential dynamic logic. Профессор полагает, что любая конкретная теория для универсальных роботов будет ограниченной, так как всегда подразумевает использование моделей -- он же сторонник системы систем, объединяющей самые разные походы -- детерминированные, недетерминированные, вероятностные, конкурентные -- для достижения заданной цели. При этом задачи планирования поведения в реальном мире остаются NP-трудными, и классическими ИТ-подходами нужной эффективности не добиться.
Методы верификации тут не слишком помогут, потому что они отвечают на вопрос "строю ли я систему правильно?", однако не дают ответа на метасистемную валидацию "правильную ли систему я построил?"...

Gerwin Klein, профессор из Australia’s National Centre of Excellence for ICT Research,
http://www.nicta.com.au/pub?id=7371
о формальной верификации кода (важно для задач автоматической кодогенерации):
- если код исходно не пишется под верификацию, автоматически верифицировать его крайне сложно;
- соответственно, программистам (прежде всего Open Source) желательно это учитывать, активнее использовать абстракции, модульность и поддерживать ясную архитектуру;
- в дополнение к типовым методам полной верификации кода появляются более практичные схемы вероятностного анализа, исходящие из того, что практическая работа программы сама по себе вероятностна;
- если мы проектируем систему с исходно непредсказуемым поведением (это, в частности, все системы, использующие алгоритмы машинного обучения), теоретически невозможно сделать их абсолютно безопасными...