Для своего мобильного приложения мы хотим сделать анимацию персонажа, а именно - синхронизацию движения губ с аудио.

На гитхабе есть готовый проект

https://github.com/met4citizen/TalkingHead

где уже реализован lipsync для английского языка (с использованием модели из glb файла) на JS. Скрипт получает аудио, разбивает его на звуки и для каждого звука (по нужному смещению) меняет положение губ/лица/эмоции.

Теперь, мы хотим сделать то же самое на swiftui.

Есть у вас есть опыт реализации чего-то подобного или вы просто знаете, что можете реализовать это - пишите, с удовольствием обсудим сотрудничество.

Если вы знаете другие способы решить ту же задачу - дайте нам знать, мы не привязаны к какой-то одной реализации, просто нужен результат.

год назад
Pilsen
42 года
16 лет в сервисе
Был
3 месяца назад

Заявки фрилансеров

Нет заявок фрилансеров