Loading...
Современные продвинутые роботы точно распознают объекты с помощью зрения и осязания. С помощью датчиков и алгоритмов машинного обучения устройства идентифицируют ранее опознанные объекты. Однако когда робот видит новые или похожие по размеру и форме объекты, его восприятие путается.
Китайские ученые решили исправить эту проблему. Они обратились к осязанию человека, а именно — к тепловому ощущению. С помощью этого чувства люди идентифицируют дуновение ветра, тепло, холод и разные типы материалов. Исследователи сымитировали эту способность, разработав роботизированный метод тактильного зондирования. С помощью него устройства могут испытывать тепловые ощущения и более точно обнаруживать объекты.
Команда создала многослойный датчик с функцией обнаружения материала на поверхности и чувствительностью к давлению в нижней части и с пористым средним слоем, реагирующим на температурные изменения. Ученые объединили этот датчик с алгоритмом каскадной классификации. Она исключает типы объектов от простого к сложному — начиная с картонных коробок и заканчивая апельсиновыми корками или обрывками ткани.
Затем исследователи протестировали свой метод. Робот собирал мусор: обрезки хлеба, пакеты, пластиковые бутылки, лекарства с истекшим сроком годности и другие отходы, а интеллектуальная система сортировала мусор по разным контейнерам для вторсырья, пищевых отходов, опасных предметов и других. Оказалось, что метод позволил достичь точности классификации в 98,85%, чего не удавалось раньше. Такая успешная сортировка мусора может сократить трудозатраты человека.
В будущем ученые планируют и дальше повышать интеллектуальность роботов и их автономность.
«Кроме того, благодаря объединению датчика с технологией интерфейса "мозг — компьютер" тактильная информация, собираемая датчиком, может быть преобразована в нейронные сигналы, приемлемые для человеческого мозга. Это расширяет возможности тактильного восприятия людей с ограниченными возможностями рук», — рассказал Жун Чжу, соавтор исследования из Университета Цинхуа, Китай.
Подписывайтесь на InScience.News в социальных сетях: ВКонтакте, Telegram, Одноклассники.