Безопасность, как и любая другая способность, должна быть встроена и обучена искусственному интеллекту, который оживляет роботизированный интеллект. Никто не потерпит роботов, которые регулярно врезаются в людей, создают опасность для пассажиров, управляющих автономными транспортными средствами, или заказывают товары через Интернет без разрешения их владельцев.

Контролируемый метод проб и ошибок – это то, как большинство решений в области робототехники, периферийных вычислений и самоуправляемых транспортных средств приобретут и развивают свои интеллектуальные возможности ИИ. Являясь мозгом автономных устройств, ИИ может помочь роботам так хорошо справляться с поставленными перед ними задачами и выполнять их так незаметно, что мы никогда не задумываемся о них.

Обучение роботизированного искусственного интеллекта безопасной работе – процесс не из приятных. Когда робот ищет оптимальную последовательность действий для достижения намеченного результата, он обязательно будет предпринимать больше контрпродуктивных действий, чем оптимальные пути. Использование RL (обучение с подкреплением) в качестве ключевого подхода к обучению ИИ роботы могут обнаружить, какие автоматизированные действия могут защитить людей, а какие могут убить, вызвать болезнь или иным образом подвергнуть их опасности.

Что нужно изучить роботам

Разработчики должны включить следующие сценарии в свои процедуры RL, прежде чем выпускать своих роботов на базе искусственного интеллекта в более широкий мир:

Геопространственная осведомленность: В реальных операционных средах универсальным роботам может быть очень сложно ориентироваться. Правильный RL мог бы помочь алгоритмам ИИ в этот охранный робот изучить диапазон проблем передвижения в помещении и на открытом воздухе, для патрулирования которых он был разработан. Оснащения робота встроенной видеокамерой и тепловизором было недостаточно. Никакой обученный ИИ не смог бы спасти его после того, как он перевернулся в общественный фонтан.

Избежание столкновения: Роботы могут быть не только помощником, но и опасностью во многих реальных средах. Это очевидно для автономных транспортных средств, но не менее актуально для розничной торговли, офиса, жилого дома и других сред, где люди могут ослабить бдительность. У общества есть все основания ожидать, что средства защиты, основанные на искусственном интеллекте, будут встроены в повседневных роботов, чтобы малышам, инвалидам и всем остальным не нужно было бояться этого. они врежутся в нас, когда мы меньше всего этого ожидаем. Предотвращение столкновений – основная задача RL – должно быть стандартным высокоточным алгоритмом для каждого робота. Скорее всего, в ближайшее время этого потребуют законы и регулирующие органы в большинстве юрисдикций.

Контекстная классификация: Роботы будут работать на близком расстоянии с людьми в промышленном сотрудничестве, которое становится все более сложным. Многие из этих совместных работ предполагают высокоскоростную производственную работу с высокой производительностью. Чтобы предотвратить риски для жизни и здоровья, ИИ, который управляет роботами в заводских цехах, потребуется ум, чтобы быстро отличать людей от окружающего оборудования и материалов. Эти алгоритмические классификации будут основываться на корреляции трехмерных данных в реальном времени поступающие от различных камер и датчиков, и будут управлять автоматическим снижением рисков, таким как остановка оборудования или его замедление, чтобы не пострадали рабочие. Учитывая почти бесконечный диапазон комбинаторных сценариев, вокруг которых необходимо будет обучать управление промышленными роботами, и, соответственно, широкий спектр потенциальных аварий, необходимый ИИ будет работать на RL, обученном на данных, собранных как в реальных операциях, так и в результате высокореалистичных лабораторных симуляций.

Избегание членовредительства: Роботы почти никогда не будут запрограммированы на уничтожение себя и / или окружающей среды. Тем не менее, роботы, обученные с помощью RL, могут изучить широкий спектр необязательных форм поведения, некоторые из которых могут привести к самоповреждению. В качестве расширения его основного обучения подход под названием «остаточный RL”Может использоваться для предотвращения исследования роботом саморазрушающего поведения или поведения, дестабилизирующего окружающую среду, во время тренировочного процесса. Использование этой процедуры обучения самозащиты может стать широко распространенным явлением, поскольку роботы становятся настолько гибкими в захвате и других манипуляциях с окружающей средой, включая взаимодействие с людьми-операторами, что они начинают подвергать опасности себя и других, если не обучены этому не делать.

Аутентифицированное агентство: Роботы все чаще становятся физическим воплощением цифровых агентов во всех аспектах нашей жизни. Умные колонки упомянутый здесь должны быть обучены воздерживаться от размещения несанкционированных заказов. Они по ошибке последовали голосовому запросу на покупку, полученному от ребенка без разрешения родителей. Хотя это можно было бы решить с помощью многофакторной аутентификации, а не алгоритмического обучения, очевидно, что роботам с голосовой активацией во многих сценариях окружающей среды может потребоваться пройти сложные алгоритмы при принятии решения, какие многофакторные методы использовать для строгой аутентификации и делегированного разрешения. Возможно, RL может использоваться, чтобы помочь роботам быстрее определять наиболее подходящие процедуры аутентификации, авторизации и делегирования для использования в средах, где они служат в качестве агентов для многих людей, пытающихся выполнить разнообразный динамический диапазон задач.

Оборонительное маневрирование: Роботы – это объекты, которые должны выдерживать как преднамеренные, так и случайные нападения, которые могут нанести другие сущности, например люди. Алгоритмы ИИ в этот автобус без водителя должен был быть обучен совершать какие-то уклончивые действия – например, отклоняться на несколько футов в противоположном направлении – чтобы избежать непреднамеренного движения полувагона. Оборонительное маневрирование станет критически важным для роботов, которые используются на транспорте, в общественной безопасности и в армии. Это также важная возможность для роботизированных устройств отражать общий вред и вандализм, которые они обязательно привлекут, где бы они ни были развернуты.

Совместная оркестровка: Роботы все чаще используются как слаженные ансамбли, а не как отдельные помощники. В Алгоритмы ИИ в складских роботах должны быть обучены работать в гармонии друг с другом и со многими людьми, работающими в этой среде. Учитывая огромный диапазон возможных сценариев взаимодействия, это непростая задача для RL. Но общество будет требовать эту важную возможность от устройств всех видов, включая беспилотные летательные аппараты, которые патрулируют наше небо, доставляют наши товары и исследуют среды, слишком опасные для проникновения людей.

Культурная чувствительность: Роботы должны уважать людей в соответствии с нормами цивилизованного общества. Это включает в себя обеспечение того, чтобы роботы алгоритмы распознавания лиц не делайте дискриминационных, унижающих достоинство или иных бесчувственных выводов о людях, с которыми они сталкиваются. Это станет еще более важным, поскольку мы будем развертывать роботов в очень социальных условиях, где их нужно обучать не обижать людей, например, используя неточное приветствие по признаку пола трансгендеру. Такие различия могут быть очень сложными для реальных людей, чтобы сделать их на лету, но это только усиливает потребность RL в обучении управляемых искусственным интеллектом сущностей, чтобы избежать автоматической ошибки.

Обеспечение соблюдения требований безопасности

В ближайшем будущем может потребоваться журнал видеоаудита вашего процесса RL для прохождения проверки с заинтересованными сторонами, которым требуются сертификаты того, что ваши творения соответствуют всем разумным требованиям. Безопасность искусственного интеллекта критерии. От вас также могут потребовать продемонстрировать соответствие правилам ограниченного RL, чтобы убедиться, что ваши роботы использовали «безопасное исследование», согласно обсуждениям в этот исследовательский документ OpenAI 2019 г. или это Исследование MIT 2020.

Обучение робота безопасной работе может быть долгим, утомительным и утомительным процессом. Разработчикам может потребоваться усовершенствовать свои методы RL путем кропотливых усилий до тех пор, пока их роботы не смогут работать так, чтобы их можно было обобщить для различных сценариев безопасности.

В течение следующих нескольких лет эти методы вполне могут стать обязательными для профессионалов в области искусственного интеллекта, которые внедряют робототехнику в приложения, которые ставят под угрозу жизни людей.

Авторские права © 2021 IDG Communications, Inc.


#Внедрение #аналитических #данных #по #безопасности #ИИмозг #роботов

Source link