Data Science fwdays'19 в Киеве

Data Science fwdays'19 в Киеве
Первая конференция от Fwdays, посвященная Data Science и Machine learning, прошла в Киеве.

DataArt, золотой партнер конференции, в третий раз стал спонсором Diversity tickets. Эти билеты дают возможность посетить событие тем, кто мало представлен в IT-сообществе или нуждается в финансовой помощи.

13 экспертов выступили с докладами об Artificial intelligence и Data Science, актуальные вопросы обсуждали в Speakers' Corner. Конференция собрала более 380 участников, онлайн трансляции докладов смотрели около 2000 людей. 

Наши коллеги поделились впечатлениями после конференции.

Инна Гученко (Business Analyst, DataArt)

Наиболее интересными для меня стали доклады Трека А.

Открывал конференцию Александр Краковецкий (DevRain) с докладом «Черный ящик машинного обучения». Тема интерпретируемости (объяснимости) моделей начала активно развиваться только в 2017 году, и сегодня особенно актуальна в свете новых правил защиты персональных данных, принятых Евросоюзом (GDRP). Объяснимость модели также играет важную роль в построении взаимодействия человек искусственный интеллект, ведь абсолютно естественно задаться вопросом «как я могу понять решения модели и доверять им?»

Довольно остра тема этики и предубеждений при попытках объяснить, почему, например, модели предсказания совершения преступлений явно имеют перекос в сторону лиц с определенным цветом кожи.

Александр рассмотрел наиболее известные приложения и фреймворки, которые используют для интерпретации результатов машинного обучения, в частности LIME, Shap, RNNVis. Также привел интересный пример, как иногда самая простая модель дает результат не хуже, но быстрее и эффективнее, чем более сложная (на примере расчета количества погибших на «Титанике»).  

Большие компании (Google, IBM и Microsoft) начали активно работать над интерпретаторами моделей машинного обучения всего год назад. В конце доклада Александр высказал предположение, что эта тема будет особенно актуальна следующие пять лет. 

Следующий доклад на треке А — «Конструирование признаков для распознавания оскорбительной речи для украинского языка в Twitter» Валерии Лакусты (Grammarly). Валерия исследовала признаки оскорбительной речи с точки зрения компьютерной лингвистики. Исследование усложнялось практически полным отсутствием ресурсов и инструментов для украинского языка, орфографическими ошибками, суржиком и неологизмами в соцсетях. Для нивелирования этих особенностей рассматривались такие методы, как расстояние Левенштейна и символьные биграммы.

Интересным открытием стал бо́льший вес нелингвистических признаков оскорбительной речи — количества фоловеров, друзей, публикаций и лайков — в итоговой модели и ее калибровке по сравнению с лингвистическими — грамматикой, синтаксисом, деревьями зависимостей, контекстом отрицания, эмоджи.

А лично для меня открытием стало существование словаря матерных слов украинского языка с 7130 словоформами. 

Многие докладчики конференции затрагивали морально-этические аспекты использования искусственного интеллекта. Максим Завгородний (Java Developer, DataArt) рассказывает о разделении ИИ на слабый и сильный.

Слабый искусственный интеллект

Существует целый ряд узконаправленных задач, с решением которых весьма успешно справляется слабый ИИ. Например, задачи с распознаванием образов, классификацией объектов, перевод голоса в текст или обратно. 

Примеры успешного использования:

AlphaGo Official Trailer

Machine Learning Zero to Hero (Google I/O'19)

Несмотря на это, все чаще возникают конфликты  морально-этического характера. Например, сервис от Google по поиску изображений, в основе которого находится самообучаемая нейросеть, по запросу “monkey” отображал людей определенной расы. Это повлекло за собой множество судебных исков и скандалов. Также есть примеры, которые базируются на статистических моделях, и могут давать значительные погрешности исходя из цвета кожи, уровня образования и прочих деталей. 

Можно сказать что в обществе назревает вопрос не в том, как научить компьютер думать, а как обучить его этике и морали. Именно поэтому в 2019 году всемирная организация GDPR постановила следующие принципы регулирования в области машинного обучения и искусственного интеллекта:

Иными словами, ИИ, который ориентируется лишь на решение поставленных задач, не учитывая этику, окажется весьма опасным.

Например, в мире финансов может быть выбрана следующая стратегия:

  1. Инвестировать в акции оборонного предприятия. 
  2. Развязать войну с соседним государством.
  3. Получить отличную прибыль. 

Или же для решения задач с экологическими катастрофами на планете Земля, оптимальной будет следующая стратегия:

Чтобы решить вышеперечисленные задачи, необходимо двигаться в сторону сильного искусственного интеллекта.

Сильный искусственный интеллект не просто использует алгоритмы для манипуляции с данными (зашитые изначально или наработанные в процессе обучения), а главное — осознает смысл информации. 

Концепция осознания неизбежно затрагивает понятие сознания как такового, что неразрывно связано со способностью мыслить и осознавать, а следовательно — быть личностью. 

Чтобы успешно решить эту задачу, необходимо создать систему, которая будет способна осознавать смыслы, размыкать истинное понятие образов. Другими словами, необходимо создать аналог сознания.

Классический пример данной проблемы — «Китайская комната» (Chinese room) опубликованный Джоном Сёрлом в 1980 году. Суть эксперимента заключается в том, что человек, который не знает китайский, может, следуя инструкциям на английском, по определенному запросу вернуть соответствующий иероглиф. В эксперименте действия будут выполнены алгоритмически, и не столь важно, обучилась ли этим действиям нейронная сеть, или они заранее были вложены программистом. 

Чтобы интеллект по праву был назван сильным, он должен понимать контекст иероглифов. Например истинный смысл определенного иероглифа в контексте третьей чайной церемонией философии Дао. 

Джон Сёрл: Самый сильный аргумент против искусственного интеллекта

Consciousness & the Brain: John Searle at TEDxCERN

Также можно упомянуть мысленный эксперимент под названием «Мельница Лейбница», который был описанный Готфридом Лейбницем в «Монадологии». В ходе эксперимента предполагалось представить машину размером с мельницу. Она способна симулировать восприятия, эмоции и чувства. Зайдя вовнутрь можно обнаружить, что ни одна часть мельниц или их взаимодействий не будут являться сознанием. Другими словами, одних лишь состояний недостаточно для функционирования и описания сознания. 

Современная наука не дает ответ на вопрос, что есть сознание. Более того, научное сообщество разделилось на два лагеря. Когнитивисты полагают, что сознание — эмерджентное состояния биологии нашего мозга, а воля определяется в цепочке физических состояний Вселенной. Идеалисты утверждают, что источник сознания находится вне физической природы, поскольку мы можем оперировать понятиями и категориями, которыми наша природа не наделена: бесконечность, идеальное равенство, и другое.

Исходя из этого, невозможно спроектировать сильный ИИ, не прояснив перед этим саму область проектирования, т. е. что есть сознание само по себе. 

Человеческое понимание ограничено рамками собственного сознания. Возникает замкнутая аксиоматическая система о неразрешимости которой упоминал Курт Гедель в теоремах о противоречивости и неполноте. Проще говоря, чтобы создать сознание 1.0, нужно сначала выйти за границы собственного сознания, трансформировавшись в сознание 2.0. После чего можно будет попробовать изучить сознание 1.0 и попытаться его воссоздать. 

Презентации всех докладов.

Видеоотчет.