PDA

Voir la version complète : Capturing Reality



Huv
08/01/2016, 13h34
Salut,
suite à cette news sur la page d'accueil : https://www.capturingreality.com
Quelqu'un a-t-il essayé ?
Complètement débutant en la matière, j'ai essayé tant bien que mal de reconstituer une petite statuette, sans succès...
Pas vraiment d'infos sur la 1ère étape, la prise de vue de l'objet en question, et le matériel à utiliser pour cela.
Bêtement, j'ai pris mon iphone : bien, pas bien ?
Un nombre minimum de prise de vue est-il nécessaire ?
De ce que je crois d'après ce tuto : https://www.youtube.com/watch?v=zfW-8v87Bag des prises de vue en spirale sont faites, mais est-ce obligatoire ?
Un objet posé sur un plateau tournant, et un appareil posé sur un trépied (donc fixe) est-il possible ? (de sorte que ce soit le plateau que l'on tourne...).
L'obet doit-il est parfaitement éclairé de tous cotés ?

Merci ;-)

MacGreggor
08/01/2016, 14h18
Salut Huv, en fait, normalement nous n'avons plus le droit de répondre à ceux qui n'ont pas mis leur photo dans leur avatar, et j'ai entendu dire que tous les comptes sans photo récente seraient bientôt supprimés.
Je vais essayer ce soft que je ne connaissais pas, merci pour l'info.

Gyom
08/01/2016, 14h39
Merci Huv pour l'info : je ne l'avais pas vu passer celui-la <-- en fait il faudrait que je lise aussi la page d'accueil ;)

sans avoir encore teste, j'aurai tendance a croire que si tu fais tourner ton objet sur un plateau il te faut alors un éclairage uniforme (sans ombre) ou alors que l'éclairage soit lui aussi sur le plateau pour tourner avec l'objet :
si tu n'as qu'une seule source d'éclairage (fixe, indépendante de la rotation de l'objet), les ombres seront différentes d'une prise de vue a l'autre et je doute que l'algo s'en sorte correctement :-/
sauf si tu as un système de captation indépendant de la lumière (laser, etc) qui ne prendra en compte que la géométrie

Huv
08/01/2016, 15h10
Bon, c'est un peu nébuleux tout ca...
J'ai donc pris ma petite statuette. Que j'ai posée sur un plateau tournant. Total : 130 photos.
Importation dans le soft, pas de soucis jusque là :icon_mrgreen:
Mais après importation, chaque vignette de photo se retrouve a 90°, et comporte un tag triangle jaune avec un point d'exclamation... Raisons ? pas moyen de trouver...
J'aligne les images... j'obtiens un nuage de points du buste seul... pourquoi ? aucunes idées... :whistling:
Je clic ensuite sur "draft" (onglet "alignement"), et la j'ai le nuage de point de l'ensemble de l'objet...
Je me dis, top, tout roule ! donc je lance la "reconstruction" en "normal detail"... et la... "invalid pointer"...
Késako ??

Je dois louper des trucs... mais vu l'absence d'info que je trouve y compris sur le forum de l'éditeur...
Si vos tests sont concluants, je suis curieux :-)
Merci

sansalvador
08/01/2016, 15h51
j'ai vu d'autres vidéos où le tag du point d'exclamation est présent aussi sur les photos , mais visiblement ça ne leur pose pas de problèmes , tu as du les voir , la fontaine visible chez l'éditeur et une statuette de garde espagnol (enfin je crois) sur youtube.
Après , ça n'a pas l'air aussi simple et rapide que ce que nous montre la vidéo avec la statue du cerf.

Après , je ne suis pas sure que de faire des photos via un plateau tournant soit suffisant , sur les vidéos , on voit plusieurs clichés avec des angles différents , mais ça donne envie d'essayer (machine de guerrier conseillée à mon avis)

majik
08/01/2016, 19h04
eh oui rome ne s'est pas faite en un jour comme dirais l'autre, mais je suis de tous coeur avec toi et attend tes prochains résultats.
Est-il indiqué le nombre de photos que tu dois faire ?

rik25
09/01/2016, 10h03
Je fais des essais avec Memento ou Récap360, mais ce n'est pas très concluant.
Je ne trouve pas d'infos concernant la prise de vue (j'ai également pris de mon phone pour les photos)
A priori on peut tourner autour du sujet et non le faire tourner.

D'après pxlntwrk qui lui est arrivé à modéliser une chaussure via cette technique, il m'a dit :

- il faut au minimum 80% de recouvrement entre chaque photo...
- un éclairage uniforme
- ne marche pas sur des surface trop réfléchissantes

Mais toujours pas réussi avec ces conseils, et ça m'a un peu gonflé...

Mais je veux bien un retour d'expérience, et je vais essayer avec ton logiciel

pxlntwrk
09/01/2016, 10h21
salut,
j'ai fais un petit essai avec ce soft, le résultat n'est pas très fameux mais le logiciel est vraiment rapide et simple .
je posterais la vidéo dans la journée..

pxlntwrk
10/01/2016, 00h37
Salut,
voici des résultats obtenus avec un set de 57 photos prises avec mon smartphone.
avec RealityCapture j'ai laissé les settings par default et suivi les 3 étapes (alignement,reconstruction mode normal, texturing)
avec Memento tu n'a pas trop le choix tu envois tes images et tu reçois un mesh texturé
les deux images sont des "imprim écran" du viewport dans chaque soft direct après la cuisson ...

http://zupimages.net/up/16/01/mtzw.gif

je réponds en vrac ici suite a qq demandes similaires via pm

Ici
Reality Capture est rapide donne un mesh granuleux du type que produit Photoscan mais est super rapide par rapport aux autres solutions testées jusqu'ici.
Et j'ai l'impression qu'avec des photos de qualité il se révélera plus précis, a confirmé
après il faudra voir la politique tarifaire a partir du 31 janvier si j'ai biencompris?
<<ici un lien vers la vidéo de mon processus avec RealityCapture pour cette chaussure >>
pour ceux qui ont vu la vidéo du cerf rien de plus ici, a part un résultat très rapide mais moyen.
ps/je refait un test avec les photos de la bottine bleue déjà reconstituée précédemment avec Memento (https://www.dropbox.com/s/eyea9urdjfj77vc/MyWifeBlueShoes_PXL.zip?dl=0)


Memento, qui a mon avis utilise le même algorithme que Recap, 123dCatch et Smart3dCapture est d'apres moi plus orienté grand public et donne assez souvent un mesh agréable et fait la part belle a la texture bitmap. Ceci dit Memento est en plus un tres bon outil pour gerer (nettoyer, décimer etc..) des mesh dégueulasses et a fort taux de polygones en vrac (comme ceux issus de cette technique de photogrammetrie), et bien plus friendly que MeshLab.
Par contre on sait jamais ce que Autodesk va faire dans le futur avec ses app de "laboratoire"...?

pour cette shoe j'ai pas trop chercher avec Reality mais le resultat est meilleurs en l’état avec Memento, je suis encore en train de bosser dessus pour quelle soit un minimum utilisable.

Pour l'instant pas de magie pour moi, sans matos adéquat (bon boitier photo,scanner, lightfield...) je n'ai pas trouvé de solution qui sorte le mesh parfait , mais avec un soft de sculpture (type Mudbox , zBrush...) pour combler les trous, faire une retopo, gerer les UV etc... tu peux arriver a des truc sympas et utilisables... (lien vers qq unes de mes reconstructions (http://pxlntwrk.net/x/test-image-based-3d-reconstruction/))


Autre point
RealityCapture me parait ulra rapide (comparé a Photoscan par exemple), 20 min grand max de l'import des photos a l'export du model (pour ce résultat très moyen mais bon je le répète j'ai tous laissé par default et pas cherché a changer..)

Pour Memento (et autre solutions du type ) tu es dépendant que les bons serveurs d'Autodesk veuillent bien calculer ton model parfois une nuit d'attente...

une techno bien sympa et très mouvante actuellement....a suivre

sansalvador
11/01/2016, 12h23
Tu as retiré ta vidéo ?

édit : ah bin oui , je n'avais pas bien relu... :icon_pleure:

pxlntwrk
11/01/2016, 13h11
Salut Sansa,
bin ouais car hier soir j'ai obtenu assez rapidement un résultat plus sympa avec le set de photos de la bottine bleue,
alors du coup dès que j'ai un peu de time je posterai la nouvelle version...

sansalvador
11/01/2016, 13h23
Moi de mon côté j'ai réussi ....à moitié
J'entends par là que la reconstruction s'est bien faite , pas d'erreur , impec , le soucis , c'est que sur 200 photos environ , il ne prend que les similaires et donc il ne prend en compte que les photos qui ont été prises sur le même axe , j'ai donc un cercle de cams , mais toutes les vues plus hautes , rien , alors que sur les tutos je vois bien des setups de cams sur plusieurs niveaux .
Et donc , du coup le détail sur les parties hautes ne sont pas achevées , je ne trouve pas comment faire

pxlntwrk
11/01/2016, 13h50
parfois il faut s'y reprendre plusieurs fois pour l'alignement, je ne sais pas le pourquoi du comment ?
en fait si j'ai bien compris il cherche des paires de photos. un peu comme pour une vue en stéréo, ensuite il fait des groupes:icon_question:
J'ai l'impression que le fait de double-cliquer sur 2 photos plus ou moins similaires,avant l'alignement l'aide a retrouvé son chemin:icon_question:(plus de camera utilisées lors de l'alignement) tu verras aussi qu'en jouant avec l'ordre des photos les résultats de l'alignement différent... mais vu que je n'ai pas trouvé d'infos concrètes ceci reste du domaine du mystique:icon_eek:.
a suivre car je trouve ce soft assez efficace même pour du bricolage...

sansalvador
11/01/2016, 13h54
c'est exactement ça , mais que sur un alignement Y à 0 , en tout cas chez moi , je vais voir si en sélectionnant une photo d'un angle différent et en faisant des paires , si je peux relancer le bousin pour qu'il me fignole le truc , mais c'est pas cohérent , il devrait tout faire d'un coup en prenant compte des différents groupes d'images

Huv
11/01/2016, 13h58
Pas vraiment avance de mon cote si ce n'est le constat clair que je n'ai pas la config nécessaire en terme d'éclairage pour avoir un truc uni (je n'ai toujours que le buste de pris en compte une fois sur 2, et que la moitié de l'objet)... et ce que j'obtiens et de toute façon sérieusement degueu. Je prends donc une chaise et je m'installes ;-)

pxlntwrk
11/01/2016, 13h59
un autre truc ici, je n'arrive pas a ouvrir l'.obj exporté avec la r17, mais par contre la r16 l'ouvre très bien.
est-ce pareil chez vous ?

sansalvador
11/01/2016, 16h50
Donc voilà , j'ai bataillé , mais pas de progression , je ne comprends toujours pas comment ajouter des cams en hauteur et j'ai obtenu ceci

http://i.imgur.com/qvPrdWB.jpg

qui donne ...un truc dégueu , mais ça reste quand même impressionnant mais comme vous pouvez le constater , la partie haute de la maquette n'est pas reproduit , enfin les plans perpendiculaires aux cams
http://i.imgur.com/c4n3pCT.png

je suis curieuse de voir comment tu fais Pxlntwrk quand je vois le résultat de cette basket "improbable" :icon_mrgreen:

pxlntwrk
11/01/2016, 18h47
Joli!
pas trop quoi dire sur ton histoire de vue du dessus, a part que j'ai remarquer que toutes ces solutions de photogrammétrie ne gère pas bien quand tu changes l'inclinaison de ton appareil ( en tout cas avec un smartphone portrait/paysage), il faut prendre toute la série dans le même sens.

ld
11/01/2016, 19h24
Hello,

Je suis le post avec attention, ça m'intéresse...Je m'incruste donc sur la discussion. Il y 3; 4 ans j'avais fait des tests sur ce logiciel www.3dsom.com qui était assez prometteur, peut-être que quelqu'un le connait?
Il n'est pas donné mais il existe une version démo valable 1 mois, à l'époque j'avais assez bien reconstitué une statuette en 3d que je ne peux malheureusement pas montrer parce que, je ne l'ai plus.

pxlntwrk
11/01/2016, 23h02
Salut,
voici une vidéo synthétique de mon résultat avec RealityCapture (CapturingReality?) en utilisant un set de photos déjà vu ( re ici (https://www.dropbox.com/s/eyea9urdjfj77vc/MyWifeBlueShoes_PXL.zip?dl=0) ) avec Memento.
Je trouve que le résultat brut est moins bon, mais obtenu bien plus rapidement et avec des moyens "maison".


https://www.youtube.com/watch?v=DNJg2n67OSo

ciao :icon_wavey:

sansalvador
11/01/2016, 23h29
j'ai remarquer que toutes ces solutions de photogrammétrie ne gère pas bien quand tu changes l'inclinaison de ton appareil ( en tout cas avec un smartphone portrait/paysage), il faut prendre toute la série dans le même sens.

bin , je ne sais pas trop , mais quand je regarde ta vidéo , tu as bien des cams positionnées un peu partout et pas seulement sur un axe circulaire de même hauteur , le résultat est vraiment bien déjà.
Alors , est ce que la lumière tiens un rôle dans tout ça , je pense que c'est bien possible , tu as fait toutes tes photos dehors et sur des hauteurs différentes , tu as donc un éclairage uniforme si je peux dire .
Contrairement , moi j'ai posé le modèle au centre d'une table ronde dans une pièce avec une seule fenêtre et fait les photos en tournant autour , donc la lumière n'arrive que d'un côté , ce qui fait que j'ai un résultat différent quand je suis dos à la fenêtre ou en face , et même de côté

Huv
12/01/2016, 09h42
Contrairement , moi j'ai posé le modèle au centre d'une table ronde dans une pièce avec une seule fenêtre et fait les photos en tournant autour , donc la lumière n'arrive que d'un côté , ce qui fait que j'ai un résultat différent quand je suis dos à la fenêtre ou en face , et même de côté
Voila, meme soucis ici... donc éclairage uniforme indispensable j'ai l'impression... sinon... :whistling:

pxlntwrk
12/01/2016, 10h07
Salut,

l'eclairage uniforme est nécessaire si tu veux un model "neutre" (sans ombres portées trop prononcées)mais je pense que le plus important et que le soft comprenne le placement de tes prises de vues dans l'espace.
Et je crois que cela ne marche pas si tu fais tourner l'objet, il faut je pense faire un genre de sphere autour de l'objet.
Je n'ai plus le lien mais j'avais vue le dispositif d'Axyz pour shooter leurs persos.
Une grosse structure sphère avec moulte Nikon pointés sur le sujet..:sweatdrop:

Gyom
12/01/2016, 13h58
Dans la famille des soft de Photogrammetrie il y a aussi :
http://www.agisoft.com <-- PhotoScan (la version Pro est chere mais j'ai vu passer des post comme quoi la dernière version avait fait un bon en avant)
http://www.3dflow.net/3df-zephyr-pro-3d-models-from-photos/ (pas moyen de trouver le prix… mais une licence de test 14 jours est gratis)
https://www.strata.com/foto-3d-cx-create-textured-3d-models-from-your-digital-camera/ (je n'avais pas été convaincu en l'essayant… il y a longtemps)

sansalvador
12/01/2016, 16h32
Merci , Gyom , du coup je suis entrain de tester Agisoft , lui propose de prendre toutes les photos ou de faire des "paires" , du coup j'ai bien mes 195 caméras , mais par contre , il est affreusement long , plus de 1h30 mn pour aligner les photos et là il est reparti pour 45 mn , sans compter qu'il restera le mesh à faire :icon_arg:....on verra bien mais à ce niveau Reality Capture est carrément plus rapide même si c'est pas une fusée non plus sur ma config

sansalvador
12/01/2016, 21h24
Ppfffiiouuuuu !!! test fini .....enfin ! Pas moins de 7h30 pour obtenir ceci

http://i.imgur.com/9A9Wsg6.jpg

http://i.imgur.com/PYSkkUY.jpg

http://i.imgur.com/AASvMgW.jpg

http://i.imgur.com/cSjTGv7.jpg

Le résultat n'est pas optimal , les paramètres sont ceux par défaut , je trouve qu'en comparaison sur ce test Reality Capture s'en sort bien mieux , surtout si on fait le rapport temps/qualité......par contre la table est superbe :D

L'export n'est pas possible avec la version démo puisque pas de possibilité d'enregistrer .....allez 7h30 de taf à la poubelle :crying:

pxlntwrk
12/01/2016, 23h06
Salut,
bel effort:sweatdrop:

Si tu veux , la base de l' algorithme de ces soft ( Photoscan,RealityCapture) est open source et est utilisable via VisualSFM (http://ccwu.me/vsfm/) qui a une interface un peu grégaire mais qui utilise strictement le même scénario : alignement, création d'un nuage Basique, création d'un Nuage dense , création des poly et ensuite texturing.
tu ne pourras exporter qu'en .ply il me semble mais ça vaut le coup si tu ne veut pas investir est que tu veux des résultats un peu maîtrisables.

Gyom
13/01/2016, 00h47
oui Sansa… il est long :-/
il était question d'exploiter les GPU dans les mises a jours… mais je retrouve pas les posts

n'empêche qu'a part la bulle avant, elle sort plutôt bien ta bécane !

mais si tu veux jouer dans ce sens la,
essaye de recuperer une kinect ! c'est temps réel (pas dans C4D hein)
et il y a les capteurs scan3D iMachin qui se développent… encore cher pour moi

on sent bien que ça arrive… mais c'est encore galère et limite a certaines applications

pxlntwrk
13/01/2016, 09h07
j'ai vu passer ça sur 3dvf

Formation complète à la photogrammétrie, par Jeffrey Ian Wilson (http://www.3dvf.com/actualite-15561-formation-complete-a-photogrammetrie-jeffrey-ian-wilson.html)

miroof
13/01/2016, 10h57
Super la moto, on dirait qu'elle faite en cire :) !

Gyom
13/01/2016, 11h12
merci pxlntwrk !
ca va être tres interressant :)

Huv
11/02/2016, 15h05
C'est moi ou il se "touche" sérieusement sur les prix ? :icon_eek::icon_eek:
Enfin... pour la licence 1 an, et perpétuelle...
Prix (https://www.capturingreality.com/Product#Download)

clemz
11/02/2016, 16h14
C'est moi ou il se "touche" sérieusement sur les prix ? :icon_eek::icon_eek:
Enfin... pour la licence 1 an, et perpétuelle...
Prix (https://www.capturingreality.com/Product#Download)

houhou ! oui 15ke pour une licence perpétuelle :D ... !! j'espère que pour ce prix, on a le droit au séminaire de formation, aux Seychelles, offert ..

sansalvador
11/02/2016, 17h12
:icon_eek: ouhh purée !! 15 000€ pour une totale et 7 500€ pour une licence d'un an !!! nan mais ils se sont gourrés ils ont mis un 0 de trop ou alors c'est des roupies pas des euros :icon_mrgreen:

César Vonc
13/02/2016, 09h42
Et les mises à jour gratuites la première année seulement. :whistling:

chapichapo1
12/02/2018, 04h39
salut le forum,

finalement après tutos et re-tutos, j'ai abouti sur mon premier scan3D photogrammétrique.
une huitre
95 photos 12Mpx
j'ai pu sortir ce modèle en définition High Quality de justesse avec 24 G de ram, mais en resserrant la zone de calcul au plus près.
18 M de tris
puis retopo et décimation jusqu'à 31k poly, uv, map de bump et de diffuse en 16k, je sais j'y suis aller un peu fort sur les maps, c'était pour voir comment ça passe sur ma config.
voici une image de l'installation de la prise de vue, à l'extérieur
21158
- -
le filaire finale (31437 polys), je vous met pas le filaire brut, c'est le même mais on voit rien, c'est tout noir plein de tris.
21159
- -
Le rendu
21160
Sur l'huitre retournée, le dessous de la texture est plutôt grise, à cause de l'éclairage pendant la prise de vue, et je n'ai pas repris ça en retouche.
- -
:icon_wavey:

chapichapo1
25/02/2018, 11h00
bonjour,

sur ces images tout est scanné3D sauf le bocal, l'anneau autour de la pulpe, l'assiette et la "nappe"

http://reelmotion.free.fr/test_Redshift_TurbulenceFD/pressoir3c_br.jpg (http://reelmotion.free.fr/test_Redshift_TurbulenceFD/pressoir3c.jpg)
images cliquables pour voir en grand
---
http://reelmotion.free.fr/test_Redshift_TurbulenceFD/pressoir_13m_br.jpg (http://reelmotion.free.fr/test_Redshift_TurbulenceFD/pressoir_13m.jpg)
:icon_wavey:

P.S. : l'exemple du code pour faire une image cliquable sur le forum décrit ici (http://frenchcinema4d.fr/showthread.php?54953-Afficher-des-images-dans-les-messages) n'est pas tout à fait exact : pour que ça fonctionne il faut enlever les espaces autour du = au début du code

adresse de la miniature

sansalvador
25/02/2018, 11h43
Bonjour Chapichapo1

Je dois dire que sur ton test de l'huitre, c'est tout à fait ce dont je m'attendais comme résultat si je me fie à mes tests personnels, c'est fidèle , propre et les détails sont "parfaitement" réalisés .
Par contre sur ton second test "nature morte" je ne suis pas du tout convaincue, on a l'impression d'une application de texture, le détail ne ressort pas notamment les reliefs , seule la peau de l'orange s'en sort pas trop mal (la pulpe est horrible) ¨, et je me demande si ce n'est pas du à un manque de lumière lors des prises de vues.

chapichapo1
26/02/2018, 12h44
bonjour et merci de ton com. sansalvador
effectivement j'ai cumulé les erreurs sur ces modèles :

En voulant eviter l'étape de la reprojection de texture sur le modèle retopo, j'ai exporté en mode colorisation (vertex color), plus rapide
et j'avais décimé dans RC le scan brut assez fortement : de 25M tris à 1M tris
ensuite emmélage de pinceaux entre l'export fbx et obj depuis RC, car il y avait un facteur de réduction de taille que je n'avais pas vu
merdouille dans zbrush lors de la reprojection des détails
et cerise sur le gâteau : pour la même série d'images, j'ai une version assombrie pour forcer la reconstruction du modéle mais je n'ai pas changé les images pour générer la texture lors de la reprojection

pour la pulpe c'est aussi une question de réglages de la texture je pense, une meilleure map de réflection ou du SSS bref je vais creuser par là
finalement j'ai fait le test de résolution et je me rend compte que du 16k ça ne sert à rien en fait pour ces tailles de modèles en tout cas, et c'est quatre fois plus long à générer que le 8k, ça dépend du nombre d'images aussi je crois

voici le benchmark pour 98 images
lanterne2
reprojection sur FX 8350 (20% plus lent qu'un I7 4700 MQ)
texture 16k = 44 mn
texture 8k = 11 mn
texture 4k = 4 mn

voici une nouvelle lanterne qui me semble acceptable en 3 résolutions différentes pour la diffuse map : de gauche à droite : 4k 8k et 16k. Les maps de normal et displacement sont générées à partir de la géométrie dans ZB en 8k avec un modèle décimé dans RC à 12M tris (le brut est à 25M tris), le modèle final fait 34520 polys et est subdivisé par le moteur de rendu Redshift

http://reelmotion.free.fr/test_Redshift_TurbulenceFD/3LanternesC_br.jpg (http://reelmotion.free.fr/test_Redshift_TurbulenceFD/3LanternesC.jpg)
- -
http://reelmotion.free.fr/test_Redshift_TurbulenceFD/3Lanternes_br.jpg
- -
(http://reelmotion.free.fr/test_Redshift_TurbulenceFD/3Lanternes.jpg)http://reelmotion.free.fr/test_Redshift_TurbulenceFD/3LanternesDos_br.jpg

(http://reelmotion.free.fr/test_Redshift_TurbulenceFD/3LanternesDos.jpg)

Floc
26/02/2018, 17h08
Effectivement la différence entre les différentes résolution n'est pas flagrante. J'ai surtout l'impression que la qualité des photos n'est pas excellente. D’après mon expérience le plus important dans le processus, c'est vraiment la prise de vue. Sortir des maps en 16k si le piqué de tes photos n'est pas excellent ne sert pas a grand chose.
La taille des objet, en fonction de ton matériel joue aussi pas mal. Je sais qu'avec mon appareil par exemple, un alpha7 avec un objectif 28-70 de base, j'ai du mal avec les petits objets.

Quand tu parles de reprojection de texture tu parles bien de la reprojection post-retopo ou de la génération par le soft de photogrametrie ?
Car ca me parait bien long. tu fais ca avec quoi ?

Et tu devrai quand même créer les texture specular et glossiness pour les verres, car en l'etat ca perturbe vraiment la lecture de l'objet.

chapichapo1
27/02/2018, 04h54
salut Floc,

Mon appareil photo à la fonction téléphone (sic!) :sweatdrop:
le capteur est un 27mm (équivalent 35mm)
f/2.2 - 3968 x 2976 pix (11.81 Mpix) - format RAW - fonctions ISO, vitesse, EV, autofocus.
- -
échantillon d'une des photos à 100% pour évaluer le piqué
http://reelmotion.free.fr/test_Redshift_TurbulenceFD/echantillon.jpg

La reprojection c'est la génération de la texture sur le modèle post-retopo par le soft de photogrammétrie.

je fais ça avec un processeur AMD FX 8350 (8 coeurs 4GhZ), 24G de ram et 2 GTX 980ti.
Cette phase (texturing/coloring) est pur cpu, seul le calcul des Depth-maps est en GPU, étape qui vient avant le meshing qui est lui aussi cpu.
- -
merci de tes remarques pertinentes :thumbup1:
http://reelmotion.free.fr/test_Redshift_TurbulenceFD/lanternePhares.jpg

chapichapo1
27/02/2018, 15h17
je suis tombé sur cette merveille par hasard dans une ruelle peu passante.
c'est une version décimé à 8 M tris dans RC et export en vertex color -> polypaint -> texture 8k
donc pas de reprojection de la texture, dommage... en plus je n'ai plus les photos, j'irai surement les refaire...
http://reelmotion.free.fr/test_Redshift_TurbulenceFD/fontaine_br.jpg (http://reelmotion.free.fr/test_Redshift_TurbulenceFD/fontaine.jpg)
- -
http://reelmotion.free.fr/test_Redshift_TurbulenceFD/fontaineH_br.jpg (http://reelmotion.free.fr/test_Redshift_TurbulenceFD/fontaineH.jpg)

chapichapo1
27/03/2018, 03h28
Autres tests, ajout de SSS sur plusieurs parties : pulpe, partie claires du pain, intérieur oranges, carottes...
plusieurs qualités différentes :
viande en sauce : résultat moyen, sujet difficile en photogrammétrie
la baguette --> 320 photos
voir la grande image en cliquant dessus
http://reelmotion.free.fr/test_Redshift_TurbulenceFD/sesamtine_br.jpg (http://reelmotion.free.fr/test_Redshift_TurbulenceFD/sesamtine_hd.jpg)

la porte derrière, 314 photos, un brut de 256 millions de tris ! (retopo à 100k polys), porte et mur séparés.
voir la grande image en cliquant dessus
http://reelmotion.free.fr/test_Redshift_TurbulenceFD/alimentaires_br.jpg (http://reelmotion.free.fr/test_Redshift_TurbulenceFD/alimentaires_HD.jpg)
la statuette est pas de moi
le pied de la table est en cerisier (vitrifié) ! 195 photos
toutes les textures diffuses en 8k, bump-disp en 4k (out-of-core : plus de 20 GO de transfert textures lors du rendu)
rendu Redshift 59 mn sur 2 GTX 980ti (4000 x 2240 pix)lissée et débruitée localement en retouche
--
:icon_wavey:

chapichapo1
28/03/2018, 03h56
une autre vue rapprochée, le plat en sauce était bien bon :icon_beerchug: c'est du boeuf-carottes-champignons avec au milieu le bouquet garni et ses feuilles de laurier, sauce au vin rouge et des olives noires
http://reelmotion.free.fr/test_Redshift_TurbulenceFD/table_br.jpg (http://reelmotion.free.fr/test_Redshift_TurbulenceFD/table_hd.jpg)
clic sur image pour voir en grand
bon appétit :ninja:

NiKo
28/03/2018, 10h56
Joli taff Chapichapo.
Une question que je me pose sur cette méthode depuis un moment, et qui me saute aux yeux dans ta dernière compo: vu que tu captures un objet dans une lumière "spécifique" et que cette lumière se retrouve en quelque sorte incluse dans ta map de diffuse, lorsque tu rassembles tes objets dans une compo, et ben ça ne marche plus je trouve. Le fond de porte, les gousses d'ails, le pain aussi: leur couleur n'est pas homogène par rapport aux éléments.
A moins de tout shooter en studio sous un dôme unique, cette méthode ultra-réaliste devient contre-productive, non?

chapichapo1
05/04/2018, 09h59
salut Niko et merci,

oui c'est vrai, idéalement il faut une lumière la plus diffuse possible, sans contraste..
Pour les textures : dans une certaine mesure la retouche peu amélioré le résultat.
Pour la modélisation. ça donne un base mesh assez précis qu'il faut reprendre en sculpt la plupart du temps, les zones trop aplats (reflet ou ombre) font des trous dans le modèle.
les objets brillants ne passent pas, les transparents non plus évidemment. j'ai tenté une statuette en bronze patiné, ça n'a pas fonctionné.

voici 3 autres tests, les fraises, le pistolet en bois/métal rouillé et les asperges. Modéles bruts lissés, décimés et retopologisés.

http://reelmotion.free.fr/test_Redshift_TurbulenceFD/fraisesPistolet_br.jpg (http://reelmotion.free.fr/test_Redshift_TurbulenceFD/fraisesPistolet.jpg)

chapichapo1
06/04/2018, 23h52
un autre modèle : une ardoise de cuisine, 47 x 60 x 3 cm, ornée de motifs en relief. Le cadre a été refait au propre par ajout d'un tube dans C4D. Le bump est trop fort sur ces rendus.
Temps de réalisation : prise de vues (105 images), reconstruction du modèle (haute qualité 38M tris), sculpt de correction (lissage, bouchage des trous), retopologie à 47k polys, dépliage uv, texture par reprojection : environ 4 heures
avec poussière craie, morceaux de craie, salissures naturelles.
http://reelmotion.free.fr/test_Redshift_TurbulenceFD/ardoise.gif
- dédié à Jacques HIGELIN

César Vonc
10/11/2018, 20h26
Tu as l'air d'avoir pourtant bien réussi la statuette de bronze ! Tu as fait comment pour les reflets ?



J'ai remarqué que les surfaces lisses et propres sont très mal perçues, car il n'y a pas assez de points de références pour aider le logiciel à faire la correspondance entre deux angles de vue sur une surface trop uniforme.


Voici mon essai avec une chaussure avec Capture Reality, avec "seulement" 46 photos et un éclairage médiocre, le résultat est tout de même sympa, on peut facilement réduire le nombre de polys, lisser le maillage et optimiser le dépliage UV dans Capture Reality.



Notez la différence de qualité entre une surface lisse (les bandes en caoutchouc) qui contient des bosses et même un gros trou, tandis que les surfaces en textile sont vraiment nickels !



https://i.imgur.com/HZ2hbBn.jpg (https://i.imgur.com/HZ2hbBn.jpg)

https://i.imgur.com/tNgAcPb.jpg (https://i.imgur.com/tNgAcPb.jpg)



Après quelques corrections de luminosité et couleur ainsi qu'une suppression de l'occlusion ambiante (en conformant l'occlusion ambiante dans C4D puis en la soustrayant à la texture), voici la texture à plat obtenue :

https://i.imgur.com/duAIMzd.jpg (https://i.imgur.com/duAIMzd.jpg)

Et un petit rendu dans Octane :

https://i.imgur.com/d3qhA0d.jpg (https://i.imgur.com/d3qhA0d.jpg)

chapichapo1
03/12/2018, 17h31
Tu as l'air d'avoir pourtant bien réussi la statuette de bronze ! Tu as fait comment pour les reflets ?
c'est pas moi qui ai réalisé ce scan, et il a été fait d'après un modèle en chair et en os avec un capteur pro.