Когда пользователь берет в руки предмет (например, в продуктовом магазине), он фотографирует его с помощью встроенной камеры. Это изображение обрабатывается в режиме реального времени с помощью алгоритмов искусственного интеллекта, которые анализируют форму, размер и цвет предмета, а также любой текст, напечатанный на его этикетках. Об этом сообщает NewAtlas.
Источник: National University of SingaporeЕсли будет найдено совпадение с известным искусственному интеллекту объектом, пользователю сообщается информация посредством синтетического голоса в наушниках. Если потребуется дополнительная информация, пользователь может задать вопрос вслух и ИИ даст ответ.
Важно отметить, что AiSee не нужно подключать к смартфону или любому другому устройству. Кроме того, поскольку наушники фактически не закрывают уши, пользователи по-прежнему могут слышать мир вокруг себя. Сейчас ученые работают над тем, чтобы сделать технологию более доступной и эргономичной, а также надеются повысить скорость обработки и улучшить алгоритмы распознавания объектов.
«В настоящее время люди с нарушениями зрения в Сингапуре не имеют доступа к вспомогательным технологиям искусственного интеллекта такого уровня сложности. Поэтому мы считаем, что AiSee обладает потенциалом дать возможность людям с нарушениями зрения самостоятельно выполнять задачи, для которых может потребоваться помощь», — рассказал ведущий ученый, профессор Суранга Нанаяккара.
