dotcom
19/02/2011, 13h18
Hello,
Une petite question que je me pose mais qui n'a rien de lié avec un projet en cours, c'est juste une interrogation.
Je ne sais pas s'il existe un plug sur le lipstick 3d pour C4D, mais bref, voilà :
Je fais le maillage type d'une bouche et pour quelques lettres ou sons j'applique un morphtag,
mettons qu'il y ait le morphtag pour un "u" prononcé,
pour un "a" pour un "i" pour un "o"
(je ne sais pas quels sont les sons de base utilisés pour l'animation de persos, mais ça doit bien se trouver qqpart).
chaque morphtag a donc son petit slider de 0 à 100.
Maintenant j'anim selon une bande son ...
le sais que la voix-off passe du "o" au "i" puis au "a" etc.
donc j'anim mes petits sliders selon les sons prononcés, et j'y passe des heures...
N'y aurait-il pas un moyen de faire dire par ma bouche le fichier son automatiquement ?
on gagnerait un temps d'animation considérable...
Donc j'ajoute des points clefs dans mon animation :
à la frame 10 ma bouche dit un o
à la frame 15 elle dit un i
puis à la frame 20 elle dit un a
10:o , 15:i , 20:a
Un petit xpresso passe par là aidé par un coffee ou un python ou autre serpentin caféiné du genre...
il lit la timeline (ou un fichier texte) et applique la valeur 100 du slider à l'instant ou se prononce la lettre
puis revient à 0 au moment ou une autre lettre se prononce qui à son tour pousse son slider à 100,
etc.
ça automatiserait bien des choses et autoriserait bien des avatars...
Supposons aussi que je puisse intégrer le maillage d'une bouche que j'ai modélisé : on a un plug-in qui s'adapte
à la fois selon une mod et à la fois selon un fichier son donné.
On a juste à modeliser sa bouche personnalisée
et à donner des valeurs sur une timeline.
Possible ?
Une petite question que je me pose mais qui n'a rien de lié avec un projet en cours, c'est juste une interrogation.
Je ne sais pas s'il existe un plug sur le lipstick 3d pour C4D, mais bref, voilà :
Je fais le maillage type d'une bouche et pour quelques lettres ou sons j'applique un morphtag,
mettons qu'il y ait le morphtag pour un "u" prononcé,
pour un "a" pour un "i" pour un "o"
(je ne sais pas quels sont les sons de base utilisés pour l'animation de persos, mais ça doit bien se trouver qqpart).
chaque morphtag a donc son petit slider de 0 à 100.
Maintenant j'anim selon une bande son ...
le sais que la voix-off passe du "o" au "i" puis au "a" etc.
donc j'anim mes petits sliders selon les sons prononcés, et j'y passe des heures...
N'y aurait-il pas un moyen de faire dire par ma bouche le fichier son automatiquement ?
on gagnerait un temps d'animation considérable...
Donc j'ajoute des points clefs dans mon animation :
à la frame 10 ma bouche dit un o
à la frame 15 elle dit un i
puis à la frame 20 elle dit un a
10:o , 15:i , 20:a
Un petit xpresso passe par là aidé par un coffee ou un python ou autre serpentin caféiné du genre...
il lit la timeline (ou un fichier texte) et applique la valeur 100 du slider à l'instant ou se prononce la lettre
puis revient à 0 au moment ou une autre lettre se prononce qui à son tour pousse son slider à 100,
etc.
ça automatiserait bien des choses et autoriserait bien des avatars...
Supposons aussi que je puisse intégrer le maillage d'une bouche que j'ai modélisé : on a un plug-in qui s'adapte
à la fois selon une mod et à la fois selon un fichier son donné.
On a juste à modeliser sa bouche personnalisée
et à donner des valeurs sur une timeline.
Possible ?