Поиск
Показаны результаты для тегов 'различать'.
Найдено: 2 результата
-
Даже если человек умер, его смартфон бывает можно разблокировать с помощью его отпечатка пальца. Но о сканерах радужной оболочки глаза, судя по всему, такого скоро нельзя будет сказать. Исследователи из Варшавского политехнического университета разработали алгоритм машинного обучения, способный различать радужные оболочки живых и мёртвых людей с точностью в 99 %. Учёные натренировали искусственный интеллект, используя базу радужных оболочек людей, умерших в разное время, а также образцы радужек сотен живых людей. Затем исследователи заставили систему взаимодействовать с изображениями глаз, на которых алгоритм не обучался. Всё сложнее, чем можно подумать. Глаза мёртвых людей обычно удерживают ретракторы, поэтому сотрудники университета вынуждены были вырезать из изображений-образцов всё, кроме самих радужных оболочек, чтобы не вводить алгоритм в заблуждение. Также польским исследователям пришлось фотографировать живые радужные оболочки той же камерой, на которую снимали глаза трупов, чтобы технические различия не испортили результат. В таком подходе есть подвох: алгоритм способен обнаружить мёртвый глаз только в том случае, если его владелец скончался 16 или более часов назад — в первые несколько часов разница несущественна. Теоретически злоумышленник мог бы убить кого-то, открыть глаз жертвы и разблокировать её смартфон. Впрочем, благодаря системе убийце, по крайней мере, пришлось бы поторопиться.
-
Исследователям Массачусетского технологического института удалось построить нейросеть, способную различать звуки отдельных музыкальных инструментов на видео. Искусственный интеллект под названием PixelPlayer даже может сделать отдельные источники звука громче или тише. «Мы рассчитывали, что в лучшем случае сможем указать, какие звуки производит отдельный инструмент. Удивительно, что мы смогли обнаружить инструменты в пространстве на уровне пикселей. Эта способность открывает множество возможностей, например, редактирование аудиодорожки с помощью клика по видео», — заявил один из авторов ИИ. В основе PixelPlayer лежит нейронная сеть, освоившая 714 видеороликов YouTube, входящих в набор данных под названием «Многомодальные источники комбинаций инструментов» (Multimodal Sources of Instrument Combinations, “MUSIC”). Первые пятьсот видеороликов длиной в 60 часов нейросеть обучалась, остальное время учёные использовали для проверки результатов. PixelPlayer работает самостоятельно, программа может разделить звуки более чем двадцати инструментов, и пользователю не нужно готовить какие-либо заметки. Учёные уверены, что получив больше данных, ИИ научится различать и больше наименований, но пока что им трудно настроить неочевидные различия между классами музыкальных инструментов. «Мы рассчитываем, что работа поможет раскрыть новые области исследования проблемы разделения источника звука с помощью визуальных и аудиосигналов», — отметили исследователи.