Discussion:
Photographie 3D
(trop ancien pour répondre)
Richard Hachel
2021-07-09 12:06:45 UTC
Permalink
Bonjour, je vois de plus en plus de photos 3D sur les forums.

Comment ça marche?

L'appareil prend plusieurs angles en même temps?

R.H.
r***@pla.net.invalid
2021-08-04 14:53:53 UTC
Permalink
Post by Richard Hachel
Bonjour, je vois de plus en plus de photos 3D sur les forums.
Comment ça marche?
L'appareil prend plusieurs angles en même temps?
de nos jour pas mal de smartphones sont équipés de 2 voire 3 objectifs,
donc ça marche tout seul (d'autant qu'il y a maintenant les formats pour ).

maintenant avec 2 prises de vues distantes, il y a toujours moyen
d'encoder ça a posteriori.
--
Fabrice
Richard Hachel
2021-08-04 15:05:33 UTC
Permalink
Post by r***@pla.net.invalid
Post by Richard Hachel
Bonjour, je vois de plus en plus de photos 3D sur les forums.
Comment ça marche?
L'appareil prend plusieurs angles en même temps?
de nos jour pas mal de smartphones sont équipés de 2 voire 3 objectifs,
donc ça marche tout seul (d'autant qu'il y a maintenant les formats pour ).
maintenant avec 2 prises de vues distantes, il y a toujours moyen
d'encoder ça a posteriori.
Théoriquement, il faut quatre objectifs, non?

Il faut bien aller de droite à gauche et de haut en bas (quatre coins).

Je sais pas.

D'un autre côté, même si c'est pas mal, ça apporte quand même moins
que l'invention de la couleur, et de la pixellisation en Mo.

R.H.
robby
2021-08-05 05:14:09 UTC
Permalink
Post by Richard Hachel
Théoriquement, il faut quatre objectifs, non?
avec une paire stéréo ( comme tes yeux ) on fait déjà beaucoup de
choses, même s'il reste des cas particuliers ( zones sans info si on met
la caméra vers là, et d'ailleurs ça se voit sur pas mal de ces images,
meme si c'est masqué par le fait qu'on reprojette l'image sur le 3D
possiblement faux. tu notera que dans ces images la camera de visu bouge
tres peu).
C'est comme ça qu'on fait la photogrammétrie aérienne donnant le relief
des terrains.

Stricto sensu pour couvrir l'autre direction, il faut a minima le
simplex couvrant la dimension supplémentaire, donc juste une 3 eme vue
decalée dans l'autre axe.

note que meme la, il reste de toutes façons des zones 3D non vues, donc
si tu laisse la camera de visu totalement libre tu tombera forcément sur
des trucs non définis.
Pour les captures de 3D ou de mouvement a usage ciné et autres, on
utilise plein de caméras, à pleins d'endroits de la salle.
Post by Richard Hachel
D'un autre côté, même si c'est pas mal, ça apporte quand même moins
que l'invention de la couleur
ça depend pour quoi.  un visage est une forme très simple, et de toute
façon on l'intuite déjà a fond.

Par contre de la montagne ou le détail du feuillage d'un arbre a
enormement de variations de relief a plein d'echelles, tout en etant
souvent peu varié en chrominance.
Post by Richard Hachel
et de la pixellisation en Mo.
pas compris. tu parles de résolution ?

si c'est le cas, alors je dirais qu'on est coincé dans le marketing
stérile de pousser les mega pixels inutiles,
alors que le vrai probleme des photos numériques c'est le manque de
dynamique ( peu de bits par couleur: l'ombre est vite toute noire et
l'éclairé tout blanc ). Le HDR reste balbutiant et produit avec des
inconvénients ( via composition de photos successives a expositions
différentes ).
--
Fabrice
Richard Hachel
2021-08-05 09:58:59 UTC
Permalink
Post by robby
si c'est le cas, alors je dirais qu'on est coincé dans le marketing
stérile de pousser les mega pixels inutiles,
Oui, c'est ce que je disais déjà, il y a de nombreuses anées.

C'est débile de pousser le marketting aux pixels.

Souvent d'ailleurs pour être obligé de mettre ses photos sur Facebook
en 350*450 au mieux.

Par contre, ce que je rechercherais plutôt, si j'étais photographe,
c'est la sensibilité des prises.

Pouvoir photographier très vite (coureurs cyclistes par exemple) ou
très bien (intérieur de maison, crépuscule).

Ca oui, évidemment.

Les pixels... bofff... Je vois pas trop l'intérêt d'avoir 18 millions
de pixels avec par exemple une sensibilité limitée à 100 Iso à cause
du bruit.

Donc oui, je suis tout à fait d'accord.

J'ai un petit appareil que j'ai réglé sur 1 Mégapixel, et il me suffit
déjà largement.

Ce qui m'ennuie, c'est plutôt le bruit qui apparait dès qu'on
photographie en atmosphère très sombre.

La course à la bonne sensibilté ma parait donc beaucoup plus importante
que celle aux pixels (très largement dépassée et rendue inutile avec la
technologie actuelle).

R.H.
Julien Arlandis
2021-08-13 21:43:14 UTC
Permalink
Post by robby
si c'est le cas, alors je dirais qu'on est coincé dans le marketing
stérile de pousser les mega pixels inutiles,
alors que le vrai probleme des photos numériques c'est le manque de
dynamique ( peu de bits par couleur: l'ombre est vite toute noire et
l'éclairé tout blanc ). Le HDR reste balbutiant et produit avec des
inconvénients ( via composition de photos successives a expositions
différentes ).
Tu trouves que 24 bits par pixel c'est pas assez, l'oeil humain serait il
capable de discerner les differences de tons d'une palette encore plus
large ?
robby
2021-08-14 07:18:55 UTC
Permalink
Post by Julien Arlandis
Tu trouves que 24 bits par pixel c'est pas assez, l'oeil humain serait
il capable de discerner les differences de tons d'une palette encore
plus large ?
il y a pleins d'aspects.

- 8 bits par canal c'est pas du tout assez: un gradient horizontal
monochrome ( gris par exemple ) va etaler 256 niveaux seulement sur les
~2000 pixels de large de ton écran, et les sauts se voient très bien (
meme si on peut ditherer, ce qui revient a emuler d'autres tons ).
Et si c'est en couleur avec des gradients différents pour R,G,B, on
obtient des teintes fantome (car les sauts ne sont pas synchrones).

- l'oeil s'adapte a la luminosité globalement, mais aussi localement.
Avec un appareil photo en exterieur sur une scene a exposition variée tu
a vite fait d'avoir une ombre totalement noire, ou une partie au soleil
completement blanche: l'info perdue n'est pas rattrapable.
( après il pourrait exister des encodings + malin ).

( - a propos d'encoding, on pourrait tj mieux exploiter les bits ( par
pixels, voir dans l'image ), c'est bien ce sur quoi jouent les
compressions d'image ( bleu moins perçu, régions d'image a dynamique
faible ou contenu corrélée, etc ), mais évidemment ce point ne concerne
que le stockage, et sous reserve de ne pas vouloir faire de
post-traitements. )

- independamment de ça, n'avoir que 3 composants (et jamais assez
saturées ) fait qu'on ne peut interpoler qu'une petite partie du domaine
chromatique.
  en production on sait que le rendu du feu est souvent problématique,
par ex.
  En analogique existait des pellicules aux spécificités spectrales
variées, mais les capteurs en numérique sont assez standard ( + pb à la
restitution, de toutes façon ).
--
Fabrice
Julien Arlandis
2021-08-14 09:09:37 UTC
Permalink
Post by robby
Post by Julien Arlandis
Tu trouves que 24 bits par pixel c'est pas assez, l'oeil humain serait
il capable de discerner les differences de tons d'une palette encore
plus large ?
il y a pleins d'aspects.
- 8 bits par canal c'est pas du tout assez: un gradient horizontal
monochrome ( gris par exemple ) va etaler 256 niveaux seulement sur les
~2000 pixels de large de ton écran, et les sauts se voient très bien (
meme si on peut ditherer, ce qui revient a emuler d'autres tons ).
Et si c'est en couleur avec des gradients différents pour R,G,B, on
obtient des teintes fantome (car les sauts ne sont pas synchrones).
Effectivement, une image en noir et blanc codée sur 24 bits ne contient
que 8 bits d'informations utiles, c'est peu. À combien faudrait il monter
le nombre de bits par canal pour un résultat acceptable, 12 bits, 16 bits
? Et surtout les capteurs numériques peuvent monter à combien ?
Post by robby
- l'oeil s'adapte a la luminosité globalement, mais aussi localement.
Avec un appareil photo en exterieur sur une scene a exposition variée tu
a vite fait d'avoir une ombre totalement noire, ou une partie au soleil
completement blanche: l'info perdue n'est pas rattrapable.
( après il pourrait exister des encodings + malin ).
Mais ça c'est un problème du capteur lors de la prise de vue, ce n'est
pas le nombre de bits par couche qui va régler ce problème, c'est
surtout l'étendue de la plage dynamique des capteurs qu'il faudrait
améliorer.
Post by robby
( - a propos d'encoding, on pourrait tj mieux exploiter les bits ( par
pixels, voir dans l'image ), c'est bien ce sur quoi jouent les
compressions d'image ( bleu moins perçu, régions d'image a dynamique
faible ou contenu corrélée, etc ), mais évidemment ce point ne concerne
que le stockage, et sous reserve de ne pas vouloir faire de
post-traitements. )
- independamment de ça, n'avoir que 3 composants (et jamais assez
saturées ) fait qu'on ne peut interpoler qu'une petite partie du domaine
chromatique.
Pas compris, tu aurais un exemple ?
Post by robby
  en production on sait que le rendu du feu est souvent problématique,
par ex.
Quel est la nature du problème ? Au niveau de la compression ou de la
capture de l'image ?
robby
2021-08-14 10:12:44 UTC
Permalink
Post by Julien Arlandis
Effectivement, une image en noir et blanc codée sur 24 bits ne
contient que 8 bits d'informations utiles, c'est peu. À combien
faudrait il monter le nombre de bits par canal pour un résultat
acceptable, 12 bits, 16 bits ? Et surtout les capteurs numériques
peuvent monter à combien ?
NB: pour un gradient sur 4096 pixels, 12 bits suffisent a rendre chaque
valeur unique :-p
( en vrai c'est trop simpliste, e.g. si les valeurs extrêmes ne
recouvrent pas toute la dynamique ).

il faudrait retrouver les courbes de sensibilité humaine en condition
optimale, et repérer le gradient de sensibilité max ( vu qu'elle n'est
pas linéaire + pas meme encoding entre vision naturelle et artificielle
) mais de toute façon reste tj le cas + exigeant où tu veux pouvoir
faire des post-traitements, a commencer par corriger l'exposition.

les capteurs d'APN les plus pourris t'offrent 12 bits en raw depuis
longtemps. Pour les bons réflexes récents, je ne sais pas a combien où
on en est. Et si tu parle de télescopes professionnels, c'est encore
mieux. :-)
Cela dit ya ce que peut le capteur, et ya les limites dues a toutes les
sources de bruit ( thermique, optique, numérique ).
Post by Julien Arlandis
Mais ça c'est un problème du capteur lors de la prise de vue, ce n'est
pas le nombre de bits par couche qui va régler ce problème, c'est
surtout l'étendue de la plage dynamique des capteurs qu'il faudrait
améliorer.
c'est la meme chose !
certes l'appareil peut essayer de mieux regler l'exposition au min/max
de la photo, reste que souvent dans la meme photo tu peux avoir du
normal + tres sombre, ou normal + tres lumineux, ou les deux. Si tu
reparti tes 8 bits par channel sur 4 magnitudes de luminance en pratique
les quantum seront enormes. Il te faut + de bits !  la solution HDR du
pauvre actuelle etant de faire un bracketing rapide à 3 expositions (
façon de donner plus de bits, au risque du bouger ).
A defaut de capteurs 24 bits par channel, un truc malin serait peut etre
d'avoir 2 optiques a exposition differente, l'une basse resolution
servant  à moduler l'exposition des pixels de l'autre.
Post by Julien Arlandis
Post by robby
- independamment de ça, n'avoir que 3 composants (et jamais assez
saturées ) fait qu'on ne peut interpoler qu'une petite partie du
domaine chromatique.
Pas compris, tu aurais un exemple ?
exemple ici:
Loading Image...

tu y vois le classique diagramme CIE représentant toutes les couleurs
perceptibles, et le triangle est la zone que tu peux obtenir en
combinant le résultat de 3 capteurs. 2 problemes: les 3 points du
triangles sont tj loin des bords perceptibles (jamais aussi saturés
qu'un pur rainbow), et de tt façon l'interpolation convexe dans le
triangle laisse des tas de régions pas couvertes ( un cyan numérique
n'est jamais aussi saturé qu'un bleu ou vert numériques ).

Pour des capteurs ou ecrans/imprimantes, tu peux parfois trouver des
docs montrant leur domaine dans le diagramme CIE.
Post by Julien Arlandis
Post by robby
   en production on sait que le rendu du feu est souvent
problématique, par ex.
Quel est la nature du problème ? Au niveau de la compression ou de la
capture de l'image ?
capture et color space.
En synthese d'image, par ex, il faudrait autoriser des R,G,B negatifs
pour pouvoir sortir du triangle  ( par ex RGB=(-.3,1,1) est un cyan plus
pur ), puis tout a la fin remapper tout ça dans un domaine affichable
(idéalement, selon techno de projection/impression ).
--
Fabrice
robby
2021-08-14 10:13:50 UTC
Permalink
Post by robby
https://www.micro-epsilon.co.uk/news/2018/UK_ME321-understandiing-colour-space/CIE-en-XYZ-colour-space.jpg
tiré de l'article "When measuring colour, ensure you choose the right
sensor and chip technology"
https://www.micro-epsilon.co.uk/news/2018/UK_ME321-understandiing-colour-space/
--
Fabrice
robby
2021-08-14 10:16:19 UTC
Permalink
Post by robby
https://www.micro-epsilon.co.uk/news/2018/UK_ME321-understandiing-colour-space/CIE-en-XYZ-colour-space.jpg
après le capteur, il y a le stockage et color space.
en sRGB normalisé, regarde tout ce que tu loupe:

http://regex.info/blog/photo-tech/color-spaces-page5
--
Fabrice
Julien Arlandis
2021-08-17 09:49:10 UTC
Permalink
Post by robby
Post by Julien Arlandis
Mais ça c'est un problème du capteur lors de la prise de vue, ce n'est
pas le nombre de bits par couche qui va régler ce problème, c'est
surtout l'étendue de la plage dynamique des capteurs qu'il faudrait
améliorer.
c'est la meme chose !
certes l'appareil peut essayer de mieux regler l'exposition au min/max
de la photo, reste que souvent dans la meme photo tu peux avoir du
normal + tres sombre, ou normal + tres lumineux, ou les deux. Si tu
reparti tes 8 bits par channel sur 4 magnitudes de luminance en pratique
les quantum seront enormes. Il te faut + de bits !  la solution HDR du
pauvre actuelle etant de faire un bracketing rapide à 3 expositions (
façon de donner plus de bits, au risque du bouger ).
A defaut de capteurs 24 bits par channel, un truc malin serait peut etre
d'avoir 2 optiques a exposition differente, l'une basse resolution
servant  à moduler l'exposition des pixels de l'autre.
Je vois mieux le problème, si on reste sur des capteurs 8 bits par
couche, on ne peut plus réhausser numériquement la luminosité dans les
zones sombres sans obtenir un gradient en marches d'escalier. Le problème
pourrait être contourné comme tu le dis avec des capteurs 24 bits par
couche qui permettraient de rescaler numériquement la luminosité avec
des marches 2^16 fois moins grandes qu'en 8 bits, et on pourrait même
reconvertir l'image en 8 bits par couche pour rester compatible avec les
écrans actuels. Autre solution avec des capteurs 8 bits, on pourrait
enregistrer pour chaque capteur leur réponse U(t) pendant la durée
d'exposition, on pourrait ainsi sélectionner localement la bonne
luminosité.
pehache
2021-08-17 12:34:20 UTC
Permalink
Post by robby
Post by Julien Arlandis
Mais ça c'est un problème du capteur lors de la prise de vue, ce n'est
pas le nombre de bits par couche qui va régler ce problème, c'est
surtout l'étendue de la plage dynamique des capteurs qu'il faudrait
améliorer.
c'est la meme chose !
certes l'appareil peut essayer de mieux regler l'exposition au min/max
de la photo, reste que souvent dans la meme photo tu peux avoir du
normal + tres sombre, ou normal + tres lumineux, ou les deux. Si tu
reparti tes 8 bits par channel sur 4 magnitudes de luminance en pratique
les quantum seront enormes. Il te faut + de bits !  la solution HDR du
pauvre actuelle etant de faire un bracketing rapide à 3 expositions (
façon de donner plus de bits, au risque du bouger ).
A defaut de capteurs 24 bits par channel, un truc malin serait peut etre
d'avoir 2 optiques a exposition differente, l'une basse resolution
servant  à moduler l'exposition des pixels de l'autre.
Je vois mieux le problème, si on reste sur des capteurs 8 bits par couche, on
ne peut plus réhausser numériquement la luminosité dans les zones sombres sans
obtenir un gradient en marches d'escalier. Le problème pourrait être contourné
comme tu le dis avec des capteurs 24 bits par couche qui permettraient de rescaler
numériquement la luminosité avec des marches 2^16 fois moins grandes qu'en 8
bits, et on pourrait même reconvertir l'image en 8 bits par couche pour rester
compatible avec les écrans actuels. Autre solution avec des capteurs 8 bits, on
pourrait enregistrer pour chaque capteur leur réponse U(t) pendant la durée
d'exposition, on pourrait ainsi sélectionner localement la bonne luminosité.
pehache
2021-08-17 12:47:32 UTC
Permalink
Post by robby
Post by Julien Arlandis
Mais ça c'est un problème du capteur lors de la prise de vue, ce n'est
pas le nombre de bits par couche qui va régler ce problème, c'est
surtout l'étendue de la plage dynamique des capteurs qu'il faudrait
améliorer.
c'est la meme chose !
certes l'appareil peut essayer de mieux regler l'exposition au min/max
de la photo, reste que souvent dans la meme photo tu peux avoir du
normal + tres sombre, ou normal + tres lumineux, ou les deux. Si tu
reparti tes 8 bits par channel sur 4 magnitudes de luminance en pratique
les quantum seront enormes. Il te faut + de bits !  la solution HDR du
pauvre actuelle etant de faire un bracketing rapide à 3 expositions (
façon de donner plus de bits, au risque du bouger ).
A defaut de capteurs 24 bits par channel, un truc malin serait peut etre
d'avoir 2 optiques a exposition differente, l'une basse resolution
servant  à moduler l'exposition des pixels de l'autre.
Je vois mieux le problème, si on reste sur des capteurs 8 bits par couche, on
ne peut plus réhausser numériquement la luminosité dans les zones sombres sans
obtenir un gradient en marches d'escalier. Le problème pourrait être contourné
comme tu le dis avec des capteurs 24 bits par couche qui permettraient de rescaler
numériquement la luminosité avec des marches 2^16 fois moins grandes qu'en 8
bits, et on pourrait même reconvertir l'image en 8 bits par couche pour rester
compatible avec les écrans actuels. Autre solution avec des capteurs 8 bits, on
pourrait enregistrer pour chaque capteur leur réponse U(t) pendant la durée
d'exposition, on pourrait ainsi sélectionner localement la bonne luminosité.
Même les capteurs les plus basiques quantifient en 10 bits par couches,
la plupart le font en 12 bits, et les meilleurs en 14 bits (ouvrir un
fichier RAW et vérifier ses caractéristiques; en fait quantifier en
plein de bits par couche est facile, mais ça ne sert à pas grand-chose
si le rapport S/N est pourri parce que les photosites sont trop petits).

Ceci dit entre la luminosité enregistrée brute dans un fichier RAW et la
luminosité codée dans un fichier image courant (JPG, PNG, TIFF,...) il y
a une loi de gamma appliquée, qui est justifiée par la sensibilité de
l'oeil : un gris dit "50%" correspond à une luminosité brute de 18% par
rapport au blanc. Et en fait une résolution 8 bits sur le fichier image
suffit à exploiter les 12 bits d'un fichier RAW.
r***@pla.net.invalid
2021-08-17 14:56:24 UTC
Permalink
Post by Julien Arlandis
Je vois mieux le problème, si on reste sur des capteurs 8 bits par
couche, on ne peut plus réhausser numériquement la luminosité dans les
zones sombres sans obtenir un gradient en marches d'escalier.
voila: dynamique très faible dans les sombres (quantisation évidente),
et bits totalement perdus là où c'est saturé.
Post by Julien Arlandis
Le problème pourrait être contourné comme tu le dis avec des capteurs 24
bits par couche qui permettraient de rescaler numériquement la
luminosité avec des marches 2^16 fois moins grandes qu'en 8 bits,
rescaler et/ou offseter.
Post by Julien Arlandis
on pourrait ainsi sélectionner localement la bonne luminosité.
voila.

ce qui est un peu le symmétrique des écrans télé "HDR" à dalle LED "gros
pixels" où l'ordre de grandeur de la luminance de l'image est règlé à
basse résolution par la dalle, puis le contraste est affiné à haute
résolution par la couche de cristaux liquides.
--
Fabrice
Julien Arlandis
2021-08-17 11:57:10 UTC
Permalink
Post by robby
Post by Julien Arlandis
Post by robby
- independamment de ça, n'avoir que 3 composants (et jamais assez
saturées ) fait qu'on ne peut interpoler qu'une petite partie du
domaine chromatique.
Pas compris, tu aurais un exemple ?
https://www.micro-epsilon.co.uk/news/2018/UK_ME321-understandiing-colour-space/CIE-en-XYZ-colour-space.jpg
tu y vois le classique diagramme CIE représentant toutes les couleurs
perceptibles, et le triangle est la zone que tu peux obtenir en
combinant le résultat de 3 capteurs. 2 problemes: les 3 points du
triangles sont tj loin des bords perceptibles (jamais aussi saturés
qu'un pur rainbow), et de tt façon l'interpolation convexe dans le
triangle laisse des tas de régions pas couvertes ( un cyan numérique
n'est jamais aussi saturé qu'un bleu ou vert numériques ).
Est ce que le problème est lié au choix des longueurs d'onde du système
RGB ou bien il n'est tout simplement pas possible de reproduire l'ensemble
des couleurs perceptibles par synthèse additive de 3 couleurs
prédéfinies ? Je suppose que le problème est fondamentalement
physiologique lié au chevauchement des réponses des 3 types de cônes
photosensibles ?
r***@pla.net.invalid
2021-08-17 15:04:16 UTC
Permalink
Post by Julien Arlandis
Post by robby
tu y vois le classique diagramme CIE représentant toutes les couleurs
perceptibles, et le triangle est la zone que tu peux obtenir en
combinant le résultat de 3 capteurs. 2 problemes: les 3 points du
triangles sont tj loin des bords perceptibles (jamais aussi saturés
qu'un pur rainbow), et de tt façon l'interpolation convexe dans le
triangle laisse des tas de régions pas couvertes ( un cyan numérique
n'est jamais aussi saturé qu'un bleu ou vert numériques ).
Est ce que le problème est lié au choix des longueurs d'onde du système
RGB ou bien il n'est tout simplement pas possible de reproduire
l'ensemble des couleurs perceptibles par synthèse additive de 3 couleurs
prédéfinies ?
les deux mon capitaine:
- un triangle ( = domaine RGB interpolable à partir de R,G,B et coeffs
entre 0 et 1 ) ne peut pas recouvrir tout le gamut en fer à cheval.

- les limites techniques des capteurs comme des luminophores ne
permettent pas d'etre très proche des bords du gamut en fer à cheval.

pour le pb 1, note que des formats d'encodages ( = color spaces ) sont
proposés avec des triangles aux sommets arbitraires, voire non physiques
genre en dehors du gamut (ça implique juste que des triplets de coeffs
sont soit innaccessibles physiquement, soit inaccessibles pratiquement
avec les capteurs ou luminophores. ce qui en passant gache un peu les
bits ).

pour le pb 2, note que l'imprimerie peu utiliser plus de 3 encres, ce
qui crée un polygone plus apte a couvrir le gamut. Bon maintenant
l'impression a bien d'autres limitations qui font que c'est difficile
quand meme d'etre large.
--
Fabrice
Julien Arlandis
2021-08-17 18:19:33 UTC
Permalink
Post by r***@pla.net.invalid
Post by Julien Arlandis
Post by robby
tu y vois le classique diagramme CIE représentant toutes les couleurs
perceptibles, et le triangle est la zone que tu peux obtenir en
combinant le résultat de 3 capteurs. 2 problemes: les 3 points du
triangles sont tj loin des bords perceptibles (jamais aussi saturés
qu'un pur rainbow), et de tt façon l'interpolation convexe dans le
triangle laisse des tas de régions pas couvertes ( un cyan numérique
n'est jamais aussi saturé qu'un bleu ou vert numériques ).
Est ce que le problème est lié au choix des longueurs d'onde du système
RGB ou bien il n'est tout simplement pas possible de reproduire
l'ensemble des couleurs perceptibles par synthèse additive de 3 couleurs
prédéfinies ?
- un triangle ( = domaine RGB interpolable à partir de R,G,B et coeffs
entre 0 et 1 ) ne peut pas recouvrir tout le gamut en fer à cheval.
- les limites techniques des capteurs comme des luminophores ne
permettent pas d'etre très proche des bords du gamut en fer à cheval.
pour le pb 1, note que des formats d'encodages ( = color spaces ) sont
proposés avec des triangles aux sommets arbitraires, voire non physiques
genre en dehors du gamut (ça implique juste que des triplets de coeffs
sont soit innaccessibles physiquement, soit inaccessibles pratiquement
avec les capteurs ou luminophores. ce qui en passant gache un peu les
bits ).
pour le pb 2, note que l'imprimerie peu utiliser plus de 3 encres, ce
qui crée un polygone plus apte a couvrir le gamut. Bon maintenant
l'impression a bien d'autres limitations qui font que c'est difficile
quand meme d'etre large.
En gros, les bits ou les couleurs, il faut choisir :)
robby
2021-08-18 05:13:26 UTC
Permalink
Post by Julien Arlandis
En gros, les bits ou les couleurs, il faut choisir :)
c'est plutôt: on est mauvais pour les deux, mais le marketing continue à
ne pousser qu'exclusivement sur la résolution ( inutilement grande
(surtout avec la meme optique), grandement couteuse en stockage dans
toute la chaine, et agravant les problemes de bruit puisque surface
receptrice + petite. )
--
Fabrice
robby
2021-08-14 15:01:55 UTC
Permalink
Post by robby
- 8 bits par canal c'est pas du tout assez: un gradient horizontal
monochrome ( gris par exemple ) va etaler 256 niveaux seulement sur
les ~2000 pixels de large de ton écran, et les sauts se voient très
bien ( meme si on peut ditherer, ce qui revient a emuler d'autres tons ).
Et si c'est en couleur avec des gradients différents pour R,G,B, on
obtient des teintes fantome (car les sauts ne sont pas synchrones).
pour le color ghosting du a la quantisation, voici une demo:
https://www.shadertoy.com/view/NdcGRr
--
Fabrice
François Guillet
2021-09-07 10:08:27 UTC
Permalink
Post by Richard Hachel
Post by r***@pla.net.invalid
Post by Richard Hachel
Bonjour, je vois de plus en plus de photos 3D sur les forums.
Comment ça marche?
L'appareil prend plusieurs angles en même temps?
de nos jour pas mal de smartphones sont équipés de 2 voire 3 objectifs,
donc ça marche tout seul (d'autant qu'il y a maintenant les formats pour ).
maintenant avec 2 prises de vues distantes, il y a toujours moyen d'encoder
ça a posteriori.
Théoriquement, il faut quatre objectifs, non?
C'est cela oui, un par oeil.
Julien Arlandis
2021-08-11 05:56:27 UTC
Permalink
Post by Richard Hachel
Bonjour, je vois de plus en plus de photos 3D sur les forums.
Comment ça marche?
L'appareil prend plusieurs angles en même temps?
R.H.
Je suppose que tu parles des photos 3D sur facebook?
Tu peux le faire avec n'importe quelle image, il ne s'agit que d'un
algorithme facebook qui découpe détecte et détoure les plans de l'image
pour leur appliquer séparément des transformations géométriques afin
de donner l'illusion d'une photo prise en 3D. Depuis quelques années, la
même technique est utilisée dans les documentaires télé pour donner de
la profondeur à un tableau ou à une photo d'époque. Un exemple ici :




Pour créer une image 3D sur Facebook, il faut passer par l'application
Facebook sur un smartphone :
https://fr-fr.facebook.com/help/android-app/414295416095269

Je viens de vérifier que ça fonctionne avec n'importe quelle photo prise
au hasard pourvu qu'il y ait du contraste entre les différents plans.
Julien Arlandis
2021-08-11 06:03:28 UTC
Permalink
Post by Julien Arlandis
Post by Richard Hachel
Bonjour, je vois de plus en plus de photos 3D sur les forums.
Comment ça marche?
L'appareil prend plusieurs angles en même temps?
R.H.
Je suppose que tu parles des photos 3D sur facebook?
Tu peux le faire avec n'importe quelle image, il ne s'agit que d'un algorithme
facebook qui découpe détecte et détoure les plans de l'image pour leur
appliquer séparément des transformations géométriques afin de donner
l'illusion d'une photo prise en 3D. Depuis quelques années, la même technique
est utilisée dans les documentaires télé pour donner de la profondeur à un
http://youtu.be/1DZuVLbroM0
Post by Julien Arlandis
Pour créer une image 3D sur Facebook, il faut passer par l'application Facebook
https://fr-fr.facebook.com/help/android-app/414295416095269
Je viens de vérifier que ça fonctionne avec n'importe quelle photo prise au
hasard pourvu qu'il y ait du contraste entre les différents plans.
Explication de l'algorithme :
<https://ai.facebook.com/blog/powered-by-ai-turning-any-2d-photo-into-3d-using-convolutional-neural-nets/>
--
Ce message a été posté avec Nemo : <http://news2.nemoweb.net/?DataID=8-U6R7MBBko_kcnEpFx4-***@jntp>
robby
2021-08-13 15:21:00 UTC
Permalink
Post by Julien Arlandis
Je suppose que tu parles des photos 3D sur facebook? Tu peux le faire
avec n'importe quelle image, il ne s'agit que d'un algorithme
facebook qui découpe détecte et détoure les plans de l'image pour
leur appliquer séparément des transformations géométriques afin de
donner l'illusion d'une photo prise en 3D. Depuis quelques années, la
même technique est utilisée dans les documentaires télé pour donner
http://youtu.be/1DZuVLbroM0
impressionnant !

mais c'est plus compliqué que juste ajouter un z a chaque pixel, car
dans cette video la parallaxe est tres forte, et il y a donc plein de
désocclusions ( pixels sans information ) dont il faut recréer un
contenu plausible ( et stable à l'animation ).

tu as plus d'information sur le making of de cette video là ? ( je
soupçonne un énorme travail manuel ).
Post by Julien Arlandis
Pour créer une image 3D sur Facebook, il faut passer par
https://fr-fr.facebook.com/help/android-app/414295416095269
Je viens de vérifier que ça fonctionne avec n'importe quelle photo
prise au hasard pourvu qu'il y ait du contraste entre les différents
plans.
<https://ai.facebook.com/blog/powered-by-ai-turning-any-2d-photo-into-3d-using-convolutional-neural-nets/>
oui, mais ici la parallaxe (mouvements de caméra) reste assez faible,
sinon on voit des bandelettes de liaisons aux silhouettes ( meme si le
fait de reprojeter l'image masque souvent pas mal ).
--
Fabrice
Julien Arlandis
2021-08-13 15:24:21 UTC
Permalink
Post by robby
Post by Julien Arlandis
Je suppose que tu parles des photos 3D sur facebook? Tu peux le faire
avec n'importe quelle image, il ne s'agit que d'un algorithme
facebook qui découpe détecte et détoure les plans de l'image pour
leur appliquer séparément des transformations géométriques afin de
donner l'illusion d'une photo prise en 3D. Depuis quelques années, la
même technique est utilisée dans les documentaires télé pour donner
http://youtu.be/1DZuVLbroM0
impressionnant !
mais c'est plus compliqué que juste ajouter un z a chaque pixel, car
dans cette video la parallaxe est tres forte, et il y a donc plein de
désocclusions ( pixels sans information ) dont il faut recréer un
contenu plausible ( et stable à l'animation ).
tu as plus d'information sur le making of de cette video là ? ( je
soupçonne un énorme travail manuel ).
J'ai pas plus d'info mais dans la vidéo c'est indiqué que c'est
réalisé avec Blender.
Peut être ont ils recréé la scène 3D à partir de la photo qu'ils ont
ensuite drapé sur les objets ?
Stéphane CARPENTIER
2021-08-13 21:55:40 UTC
Permalink
Post by robby
Post by Julien Arlandis
Je suppose que tu parles des photos 3D sur facebook? Tu peux le faire
avec n'importe quelle image, il ne s'agit que d'un algorithme
facebook qui découpe détecte et détoure les plans de l'image pour
leur appliquer séparément des transformations géométriques afin de
donner l'illusion d'une photo prise en 3D. Depuis quelques années, la
même technique est utilisée dans les documentaires télé pour donner
http://youtu.be/1DZuVLbroM0
impressionnant !
Oui.
Post by robby
mais c'est plus compliqué que juste ajouter un z a chaque pixel, car
dans cette video la parallaxe est tres forte, et il y a donc plein de
désocclusions ( pixels sans information ) dont il faut recréer un
contenu plausible ( et stable à l'animation ).
Pareil, à 43 secondes, il y a la branche qui se déplace devant la
voiture, et ça, c'est pas juste une transformation géométrique.
--
Si vous avez du temps à perdre :
https://scarpet42.gitlab.io
robby
2021-08-14 07:31:34 UTC
Permalink
Post by Stéphane CARPENTIER
Pareil, à 43 secondes, il y a la branche qui se déplace devant la
voiture, et ça, c'est pas juste une transformation géométrique.
et parfois reconstitution du fond à derrière la voiture vu par les
fenêtres ouvertes.
--
Fabrice
Richard Hachel
2021-08-11 10:40:44 UTC
Permalink
Post by Julien Arlandis
Post by Richard Hachel
Bonjour, je vois de plus en plus de photos 3D sur les forums.
Comment ça marche?
L'appareil prend plusieurs angles en même temps?
R.H.
Je suppose que tu parles des photos 3D sur facebook?
Tu peux le faire avec n'importe quelle image, il ne s'agit que d'un algorithme
facebook qui découpe détecte et détoure les plans de l'image pour leur
appliquer séparément des transformations géométriques afin de donner
l'illusion d'une photo prise en 3D. Depuis quelques années, la même technique
est utilisée dans les documentaires télé pour donner de la profondeur à un
http://youtu.be/1DZuVLbroM0
Post by Julien Arlandis
Pour créer une image 3D sur Facebook, il faut passer par l'application Facebook
https://fr-fr.facebook.com/help/android-app/414295416095269
Je viens de vérifier que ça fonctionne avec n'importe quelle photo prise au
hasard pourvu qu'il y ait du contraste entre les différents plans.
On n'arrête pas le progrès.

R.H.
François Guillet
2021-09-07 10:18:08 UTC
Permalink
Post by Richard Hachel
Bonjour, je vois de plus en plus de photos 3D sur les forums.
Comment ça marche?
L'appareil prend plusieurs angles en même temps?
R.H.
Je suppose que tu parles des photos 3D sur facebook? Tu peux le faire avec
n'importe quelle image, il ne s'agit que d'un algorithme facebook qui découpe
détecte et détoure les plans de l'image pour leur appliquer séparément des
transformations géométriques afin de donner l'illusion d'une photo prise en
3D. Depuis quelques années, la même technique est utilisée dans les
documentaires télé pour donner de la profondeur à un tableau ou à une photo
http://youtu.be/1DZuVLbroM0
Pour créer une image 3D sur Facebook, il faut passer par l'application
https://fr-fr.facebook.com/help/android-app/414295416095269
Je viens de vérifier que ça fonctionne avec n'importe quelle photo prise au
hasard pourvu qu'il y ait du contraste entre les différents plans.
Il y a évidemment de la triche, ce n'est pas qu'une simple
transformation. De l'information est recréée (donc inventée) là où elle
manque.
Par ex. à 1:24, l'homme assis cache une partie de la voiture. La partie
cachée va varier avec l'angle de vue, et on va voir des parties de la
voiture qui ne pouvaient pas exister sur la photo originale.
C'est sans doute pour ça que les changements de vue ne sont pas
radicaux : il faut pouvoir interpoler ce qu'il manque.
Julien Arlandis
2021-10-26 22:13:50 UTC
Permalink
Post by François Guillet
Post by Richard Hachel
Bonjour, je vois de plus en plus de photos 3D sur les forums.
Comment ça marche?
L'appareil prend plusieurs angles en même temps?
R.H.
Je suppose que tu parles des photos 3D sur facebook? Tu peux le faire avec
n'importe quelle image, il ne s'agit que d'un algorithme facebook qui découpe
détecte et détoure les plans de l'image pour leur appliquer séparément des
transformations géométriques afin de donner l'illusion d'une photo prise en
3D. Depuis quelques années, la même technique est utilisée dans les
documentaires télé pour donner de la profondeur à un tableau ou à une photo
http://youtu.be/1DZuVLbroM0
Pour créer une image 3D sur Facebook, il faut passer par l'application
https://fr-fr.facebook.com/help/android-app/414295416095269
Je viens de vérifier que ça fonctionne avec n'importe quelle photo prise au
hasard pourvu qu'il y ait du contraste entre les différents plans.
Il y a évidemment de la triche, ce n'est pas qu'une simple
transformation. De l'information est recréée (donc inventée) là où elle
manque.
Par ex. à 1:24, l'homme assis cache une partie de la voiture. La partie
cachée va varier avec l'angle de vue, et on va voir des parties de la
voiture qui ne pouvaient pas exister sur la photo originale.
C'est sans doute pour ça que les changements de vue ne sont pas
radicaux : il faut pouvoir interpoler ce qu'il manque.
Effectivement dans cet exemple, on ne voit jamais simultanément le
rétroviseur et la poignée de porte. Quelle est la partie complétée, la
poignée ou le rétroviseur ? Difficile à dire.

Continuer la lecture sur narkive:
Loading...