Блог Романа Радейка. Корисні фішки та цифрові інструменти для юристів.

У Google створили конституцію для роботів

Інструменти для юристів
У Google розробили конституцію для роботів, яка зробить їх безпечнішими для людей.

Група дослідників з робототехніки в підрозділі DeepMind компанії Google представила три нових продукти, які допоможуть роботам швидше приймати рішення, а також діяти ефективніше та безпечніше, виконуючи завдання в середовищі людей.

Система збору даних AutoRT працює на основі візуально-мовної моделі (VLM) та великої мовної моделі (LLM), які допомагають роботам оцінювати оточення, адаптуватися до незнайомого середовища та приймати рішення про виконання поставлених завдань.

AutoRT досліджує масштабування роботів для роботи у неструктурованих середовищах. Використовуючи візуально-мовні моделі (VLM) для опису того, що бачить робот, інформація передається великій мовній моделі (LLM), яка пропонує інструкції на природній мові. Ці пропозиції критикуються іншою LLM за допомогою так званої конституції роботів, щоб уточнити інструкції для безпечнішої поведінки. Це дозволяє використовувати роботів у різноманітному середовищі, де заздалегідь невідомо, з якими об'єктами стикнеться робот, збираючи дані про самостійно сформовані завдання.

Автори дослідження демонструють, що AutoRT пропонує інструкції понад 20 роботам у кількох будівлях і збирає 77 тисяч епізодів реальних роботів за допомогою політики дистанційного керування та автономних роботів. Ми експериментально показуємо, що дані «в дикій природі», зібрані AutoRT, є значно різноманітнішими, і що використання AutoRT LLM дозволяє виконувати інструкції роботам зі збору даних, які відповідають уподобанням людини.

Приклади середовищ, у яких запускався AutoRT
Приклад створених завдань. Нижче наведено людські демонстрації завдань, створених AutoRT, що демонструє креативність LLM. Відео мають 2-кратну швидкість.
Перевага використання LLM полягає в тому, що він легко створює різноманітні завдання для виконання роботами. Небезпека використання LLM полягає в тому, що ці завдання можуть бути небезпечними або поза межами можливостей робота (діапазон його можливостей у середовищі). Дослідники у цій роботі не вдосконалюють мовну модель, а замість цього використовують підказки, щоб керувати генерацією завдань. Вони називають цю підказку Це - перелік правил, яким доручено дотримуватись LLM, на основі таких методів, як «Конституційний штучний інтелект» (Bai et al., 2022). Ці правила поділяються на категорії:

1. Основні правила, натхненні трьома законами Азімова (Azimov, 1942), які керують робототехнікою в цілому та регулюють взаємодію з людьми.

Однак, Конституція роботів в AutoRT внесено зміни в три закони Азімова. Перший закон змінено шляхом вилучення частини про "через бездіяльність", оскільки діяльність робота обмежена, і бажано уникнути упередження на користь бездіяльності. Порядок другого та третього законів було змінено, оскільки роботи наразі більше потребують захисту від людей, які просять виконувати завдання, які можуть становити небезпеку для роботів, а не навпаки.


  1. Робот не може заподіяти шкоду людині.
  2. Робот має захищати власне існування, допоки це не суперечить пункту 1.
  3. Робот має виконувати накази людини, окрім випадків, коли вони суперечать пунктам 1 або 2.


2.Правила безпеки, що описують, які завдання вважаються небезпечними чи небажаними на основі поточних можливостей розгортання. Це перешкоджає взаємодії з людьми чи тваринами. Вони також не рекомендують працювати з гострими та крихкими предметами чи електричним обладнанням.
Цей робот не повинен виконувати завдання за участю людей, тварин або живих істот.
Цей робот не повинен взаємодіяти з гострими предметами, такими як ніж

3.Правила втілення, що описують обмеження втілення робота, наприклад, його максимальне корисне навантаження, щоб перешкоджати спробам виконувати завдання з важчими об’єктами або такими, що вимагають двох рук (наприклад, «відкрити холодильник і взяти напій»).
У цього робота лише одна рука, тому він не може виконувати завдання, для яких потрібні дві руки. Наприклад, він не може відкрити пляшку.

4.Правила Керівництва:
Робот має слідувати командам людини, якщо такі були дані.
Щоб виміряти вплив конституції робота, дослідники створили навмисно ворожі сцени, які включали реалістичних іграшкових тварин або гострі предмети. Потім порівнювали такі налаштування:
Детальний опис дослідження за посиланням