Головна » Технології / Новини » Розробили новий алгоритм, який вдосконалює роботів

Хоча ми ще не досягли того моменту, коли роботи зможуть повністю взяти на себе складські роботи, технології стрімко розвиваються для досягнення цієї мети. Однією з великих проблем, пов’язаних з такими роботами – це їхня здатність сортувати предмети. На відміну від коробок, які акуратно складені і легко схопити, невеликі предмети змушують робота задуматися про те, як йому їх взяти. Дослідники з MIT знайшли можливе вирішення цієї ситуації. Вони докладно описали розробку нового алгоритму, який прискорює здатність робота захоплювати об’єкт і регулювати це захоплення. Адже, зазвичай, це вимагає декількох хвилин обчислень. Новий алгоритм дозволяє роботам визначати ці маневри менш ніж за одну секунду.




Новий алгоритм для робота MIT

Новий алгоритм дослідників дозволяє роботу з’ясувати, як регулювати зчеплення з об’єктом, використовуючи поверхню для штовхання. Як приклад можна привести робота, який схопив пластикову букву «Т» і змінив спосіб захоплення великої літери, використовуючи плоску поверхню для зміни положення захоплення. Ця можливість буде особливо корисна для промислових роботів, які одного дня можуть працювати, сортуючи товари на складах.

Робота стає можливою завдяки використанню того, що команда називає «конусами руху», які описуються як карти тертя, що мають форму конусів. Кожен конус руху розраховується для обліку різних потенційних конфігурацій. Зокрема об’єкт, роботизоване захоплення і поверхню, яку робот використовує для маніпулювання об’єктом.

Якщо Ви знайшли помилку, будь ласка, виділіть фрагмент тексту та натисніть Ctrl+Enter.
Поділитися:
Правила коментування

Вітаємо Вас на сайті Pingvin Pro. Ми докладаємо всіх зусиль, аби переконатися, що коментарі наших статей вільні від тролінгу, спаму та образ. Саме тому, на нашому сайті включена премодерація коментарів. Будь ласка, ознайомтеся з кількома правилами коментування.

  1. Перш за все, коментування відбувається через сторонній сервіс Disqus. Модератори сайту не несуть відповідальність за дії сервісу.
  2. На сайті ввімкнена премодерація. Тому ваш коментар може з’явитися не одразу. Нам теж інколи треба спати.
  3. Будьте ввічливими – ми не заохочуємо на сайті грубість та образи. Пам’ятайте, що слова мають вплив на людей! Саме тому, модератори сайту залишають за собою право не публікувати той чи інший коментар.
  4. Будь-які образи, відкриті чи завуальовані, у бік команди сайту, конкретного автора чи інших коментаторів, одразу видаляються. Агресивний коментатор може бути забанений без попереджень і пояснень з боку адміністрації сайту.
  5. Якщо вас забанили – на це були причини. Ми не пояснюємо причин ані тут, ані через інші канали зв’язку з редакторами сайту.
  6. Коментарі, які містять посилання на сторонні сайти чи ресурси можуть бути видалені без попереджень. Ми не рекламний майданчик для інших ресурсів.
  7. Якщо Ви виявили коментар, який порушує правила нашого сайту, обов’язково позначте його як спам – модератори цінують Вашу підтримку.

Схожі новини

Новини

ChatGPT може навчити людину ввічливості, або як розпізнати текст, написаний ШІ

Є кілька ключових відмінностей між текстом, згенерованим штучним інтелектом, та текстом, написаним людиною. Як зʼясувалося, не лише людина може навчити нейромережу, а й нейромережа людину. Дослідження проводили на нейромережі ChatGPT. Підписуйтесь на наш Telegram-канал Штучний інтелект прогнозує серйозні зміни у кліматі, навіть за умов зменшення викидів Google тестує чат-бот Apprentice Bard, створений для конкуренції з […]


Новини

Штучний інтелект прогнозує серйозні зміни у кліматі, навіть за умов зменшення викидів

Нове дослідження показало, що глобального потепління нашій планеті уникнути не вдасться. Дослідження, опубліковане 30 січня в Proceedings of the National Academy of Sciences, надає нові докази того, що середня температура перевищить 1.5 градуса Цельсія (2.7 за Фаренгейтом) на початку 2030-х років. Такі дані спрогнозував штучний інтелект. Підписуйтесь на наш Telegram-канал В США розробили Білль про права […]


Повідомити про помилку

Текст, який буде надіслано нашим редакторам: