eXma » Diskutieren » Kunst und Kultur » Eure Kunst
Startseite - Veranstaltungen - Mitglieder - Suche
Vollständige Version anzeigen: Wirklicher als die Wirklichkeit
mArVinTheRobot
auf spiegel.de ist ein netter Artikel zu einem interessanten Gebiet der Fotonachbearbeitung.

Im Prinzip geht es darum, den begrenzten Umfang von Bildinformationen, die eine Digitalkamera erfassen bzw. ein elektronisches Medium darstellen kann, durch geschicktes "Überzeichen" zu erhöhen.
Einigen wird das geläufig sein, da man bisher durch manuelles Überlagern von Mehrfachbelichtungen zB. in Ebenen, auch ein bessere Bilder bauen konnte - aber ich finde es ist im Ergebnis und der Handhabung nicht vergleichbar.

So wird aus: [attachmentid=11054][attachmentid=11055][attachmentid=11056]

das:[attachmentid=11057]

Zum Glück hab ich noch alle meine Belichtungsreihen von vor ... vielen Jahren aufgehoben biggrin.gif - jetzt muss ich mir nur mal CS2 besorgen.

hat jemand schon eigene Resultate?
onkelroman
whoa.. sieht krass aus..

sind auch noch 2 weitere sehr geile beispiele auf der spon-seite..
Magic_Peat
Voll krass. (ernstgemeint)
Perseus
Aus der wikipedia:

bild kann nicht angezeigt werden

onkelroman
auch schön! seh ich das eigentlich richtig, dass man 3 kameras benötigt, um zeitgleich 3 aufnahmen unterschiedlicher belichtungszeit zu erzeugen? oder ist das mittlerweile technisch mit einer möglich?
Magic_Peat
Bei diesem Semperoper Bild scheinen mir aber die hellen Flächen etwas zu blass. War schon bei den oberen Bildern erstaunt wie man aus den "schwarzen" Flächen noch so viel rausholen kann...
mArVinTheRobot
Zitat(onkelroman @ 04 Jan 2007, 12:07)
auch schön! seh ich das eigentlich richtig, dass man 3 kameras benötigt, um zeitgleich 3 aufnahmen unterschiedlicher belichtungszeit zu erzeugen? oder ist das mittlerweile technisch mit einer möglich?
*

Belichtungsreihe
hatte schon meine analoge SR Sigma von 93

bessere Kameras haben das zu meißt, bei Aktivierung macht er ein oder 2 Bilder zusätzlich in einem belichtungsmäßig wählbaren Abstand zum eingestellten Blenden-/Zeitwert. Dadurch enstehen 3 oder 5 Serienbilder mit ansteigender Belichtung.
Jeh nach Belichtungszeit, Verschlussgeschwindigkeit und Dauer der Datenverarbeitung - liegen natürlich mehr oder weniger große Abstände zwischen den Bildern.... aber je stilllebiger oder weitwinkliger etc., umso weniger fällts auf.
Hrothgar
Das kann man mit jeder Digitalkamera machen, egal ob Kompakt, Spiegelreflex oder Mittelformat. Einzige Voraussetzung ist die Möglichkeit der manuellen Bedienung der Kamera und ein gutes Stativ.

Vor dem Motiv wird der Krempel aufgebaut und der Bildausschnitt festgelegt. Dann stellt man den niedrigst möglichen ISO-Wert ein, wählt eine Blende zwischen 8 und 13 (das kann je nach Kamera variieren) und los gehts. Jetzt macht man eine Reihe von Bildern wobei man ausschließlich die Belichtungszeit ändert. Dabei sollten auf dem dunkelsten Bild die hellsten Stellen der Szene gut sichtbar sein, ohne zu überstrahlen. Auf dem hellsten Bild sollte man in den dunkelsten Stellen ein schönes Licht haben. Dazwischen sollten so zwei bis drei Aufnahmen für die Zwischentöne liegen.
Man muss natürlich darauf achten, beim verstellen der Belichtungszeit die Kamera nicht zu bewegen, weil die sich überlagernden Bilder später sonst nicht passen und es unscharf wird. Mit einem stabilen Stativ ist das aber kein Problem. Es empfiehlt sich auch ein Fernauslöser oder das Nutzen des Zeitauslösers, um Verwackler beim Abdrücken auszuschließen.

Auf dem Rechner werden dann die Bilder mit einer geeigneten Methode zusammengerechnet. Das bei SPON genannte Photomatix ist mir aber zu teuer, besonders wenn man bedenkt, dass es auch kostenlos und genauso gut geht. Hier gibts eine schöne Freeware samt Anleitung:

http://www.dslr-forum.de/showthread.php?t=61750

Hrothgar
onkelroman
Zitat(Hrothgar @ 04 Jan 2007, 14:26)
Das kann man mit jeder Digitalkamera machen, egal ob Kompakt, Spiegelreflex oder Mittelformat. Einzige Voraussetzung ist die Möglichkeit der manuellen Bedienung der Kamera und ein gutes Stativ.

Vor dem Motiv wird der Krempel aufgebaut und der Bildausschnitt festgelegt. Dann stellt man  den niedrigst möglichen ISO-Wert ein, wählt eine Blende zwischen 8 und 13 (das kann je nach Kamera variieren) und los gehts. Jetzt macht man eine Reihe von Bildern wobei man ausschließlich die Belichtungszeit ändert.


eben nicht.. die verschiedenen bilder mit verschiedener belichtungszeit müssen ja schließlich synchron gemacht werden, und nicht nacheinander.. das bietet sich ganz besonders bei bewegten motiven an happy.gif

und da hörts dann nämlich schon auf mit "herkömmlichen digicam"..
loqo
naja dass man stillleben nur so aufmotzen kann dürfte wohl klar sein oder, ansonsten braucht man wirklich 3

aber die idee is so einfach wie genial, damit kann man best. sachen, die man mit dem auge sieht (was ja auch einzelne bilder zusammenbastelt) auch endlich mit einem foto erstellen

zb. hab ich mal bei abenddämmerung von einem feld fotografiert und die belichtung für den schönen himmel eingestellt, danach war aber das feld auf dem bild einfach nur schwarz

als ich auf dem feld stand, sah das mit dem blosen auge natürl. nicht so aus und das könnte man mit obiger technik simulieren..

man könnte fast sagen, die threadüberschrift lügt shifty.gif
EnjoyTheChris
Zitat(onkelroman @ 04 Jan 2007, 15:59)
eben nicht.. die verschiedenen bilder mit verschiedener belichtungszeit müssen ja schließlich synchron gemacht werden, und nicht nacheinander.. das bietet sich ganz besonders bei bewegten motiven an  happy.gif

und da hörts dann nämlich schon auf mit "herkömmlichen digicam"..
*

Ahja, und wie stellst du dir dann das vor, dass der Ausschnitt der 3 Kameras dann exakt zueinander passen soll (bei passender Überlappung und wirklich guten Objektiven ist das zwar denkbar, aber man verliert dann an Auflösung)?

Also ich finde HDR macht doch gerade bei Stilleben und Panoramen am meisten Sinn, denn bei "bewegten" Bildern, hat man ja meist ein Motiv im Vordergrund, wo ich HDR nicht einsetzen würde.

Das Semperoperbild ist für meinen Geschmack zu viel unscharf.

C'ya,

Christian
Hrothgar
Zitat(onkelroman @ 04 Jan 2007, 15:59)
eben nicht.. die verschiedenen bilder mit verschiedener belichtungszeit müssen ja schließlich synchron gemacht werden, und nicht nacheinander.. das bietet sich ganz besonders bei bewegten motiven an  happy.gif

und da hörts dann nämlich schon auf mit "herkömmlichen digicam"..
*


Wie soll das deiner Meinung nach gehen? Mit welchen Kameras und Technologien? Das es da spezielle Sachen gibt, ist mir klar. In dem oben genannten Spiegelartikel geht schlicht und ergreifend nur darum mit geeigneten Methoden den begrenzten Dynamikumfang einer Fotokamera zu erweitern, eben auch so einer wie sie jeder zu Hause hat.

Hrothgar
Chris
Wenn man das erste Beispiel anschaut, dann sieht man im Vordergrund ein Schiff, das sich bewegt. Scheinbar wurde hier doch nicht nur mit einer Kamera Fotos gemacht.

/:edit: Das Schiff bewegt sich sogar auf den Bildern, trotzdem fällt es bei dem Endfoto nicht auf .. krass ...
Socres
sieht geil aus, aber irgendwie unnatürlich... eher wie nen computerspiel mit so krassen effekten biggrin.gif
onkelroman
Zitat(Chris @ 04 Jan 2007, 18:46)
Wenn man das erste Beispiel anschaut, dann sieht man im Vordergrund ein Schiff, das sich bewegt. Scheinbar wurde hier doch nicht nur mit einer Kamera Fotos gemacht.

nee eben, ganz bestimmt nicht.. das würde man auf jeden fall an einer deutlichen unschärfe sehen, weil sich die wellen selbst innerhalb der paar sekunden sichtbar bewegen. ich denke eben auch dass es dafür einer speziellen technik bedarf - oder eben 3 kameras. aber weil ich das eben nicht genau weiss, frage ich ja


/edit: na gut, wenn es sich wirklich bewegt, isses was anderes, dann könnte es eben doch sein.. g.gif
Hrothgar
Zitat(Chris @ 04 Jan 2007, 18:46)
Wenn man das erste Beispiel anschaut, dann sieht man im Vordergrund ein Schiff, das sich bewegt. Scheinbar wurde hier doch nicht nur mit einer Kamera Fotos gemacht.

/:edit: Das Schiff bewegt sich sogar auf den Bildern, trotzdem fällt es bei dem Endfoto nicht auf .. krass ...
*


Es gibt da ein paar Techniken mit denen man das machen kann. Mir scheint das das Boot auf dem ersten und zweiten Bild an derselben Stelle steht, nur auf dem letzten zuckt es etwas wenn man hin- und herblättert. Wenn man bei solchen Szenen alles von Hand zusammenbastelt kann man sowas ganz gut ausgleichen.

Für Szenen mit einem nicht ganz so krassen Kontrastumfang kann man sich auch noch eines Tricks bedienen, wobei das dann kein DRI mehr im strengen Sinn ist. Man nimmt das Bild als RAW auf, also lässt die Kamera kein jpeg-Bild abspeichern sondern die rohen Sensordaten. Das emtspricht etwa einem digitalen Negativ und hat den Vorteil, dass es wesentlich mehr Informationen enthält als ein jpg. Auf dem Rechner schiebt man es dann durch die virtuelle "Dunkelkammer", einen Raw-Konverter wie etwa den von Photoshop. Dabei erstellt man drei Abzüge, einen unter- einen über und einen normalbelichteten. Fertig ist die Ausgangsbasis für den DRI-Prozess. Wie gesagt, das klappt nur bei einfachen Sachen, man hat aber den Vorteil, das man sich nicht um solche Sachen wie sich bewegende Objekte kümmern muss.

Hrothgar

PS: 3 Kameras wären ein interessanter Ansatz aber man würde sich da viel Ärger mit Parallaxfehlern einhandel weil ja jede aus einem anderen Winkel auf die Szene schaut.
tingel
Habe vor kurzem auch mal mit sowas rumgespielt, ist noch etwas unbeholfen. Das ist mit CS 2 und dem DRI Plugin gemacht. Das ist aus "nur" zwei Bildern zusammengesetzt und es sind noch eine Menge überbelichtete Regionen im Bild... .
[attachmentid=11079]
Hrothgar
Zitat(tingel @ 04 Jan 2007, 21:15)
Habe vor kurzem auch mal mit sowas rumgespielt, ist noch etwas unbeholfen. Das ist mit CS 2 und dem DRI Plugin gemacht. Das ist aus "nur" zwei Bildern zusammengesetzt und es sind noch eine Menge überbelichtete Regionen im Bild... .
*


Ganz ehrlich, das eingebaute Plugin ist ne ziemliche Gurke. Hier gibts eine schöne Anleitung dazu für Photoshop:
http://www.digiachim.de/DRI/index.htm

Den Link zum kostenlosen picturenaut hab ich schon gepostet.

Hrothgar
tingel
Habe mir mal das Tutorial angeschaut und für sehr aufwendig erachtet. Trotzdem ist es ne gute Anleitung für Bildbearbeitungsneulinge.
Ich habe allerdings nicht das HDR Plugin von Photoshop, sondern das DRI Pro von http://www.fredmiranda.com/ benutzt. Zum Vergleich habe ich jetzt aber noch mal Picturenaut und das Photoshop eigene Plugin ausprobiert.
Das Photoshop HDR erzeugt mit meinen zwei Bilder ein deutlich überbelichtetes Ergebnis. Picturenaut und das DRI Pro nehmen sich erst mal nicht viel, wenn man nur zwei Bilder hat. Mehr kann das DRI Pro auch nicht.
Für längere Belichtungsreihen ist Picturenaut sicher das Tool der Wahl.
Also ich habe jetzt schon mal gelernt, daß das unterbelichtete Bild entscheidender ist, als das mit der längsten Belichtungszeit, da davon abhängt, ob man noch überbelichtete Regionen hat. Die sehen in meinem Beispiel zugegebenermaßen schon sehr unschön aus - war aber auch der erste Versuch mit der Kamera und dem neuen Stativ (ist ein sehr handliches, weil zusammengelegt kleiner als 50 cm SLIK Sprint Pro 3Way).
papajoe
hab ich vor zwei einhalb jahren mal mit rumgespielt und gleich wieder bleiben gelassen. mir sagt die sache nicht zu. die meisten ergebnisse wirklich absolut unnatürlich und die räumliche wirkung geht verloren. zuviele details können ein bild auch erschlagen.
und unser auge sieht auch nich wirklich soviel auf einmal.
loco
das seh ich aber anders, denn unser gehirn macht genau das gleiche, es baut ein bild aus verschiedenen einzelbildern zusammen, nichts anderes wird mit diesen methoden versucht
Chris
Kommt halt immer darauf ob mans drauf hat, oder nicht. Das erste Bild aus Venedig hinterlässt einfach den Eindruck als ob man gleichwohl selbst dort stehen würde.
loco
jep, das denke ich auch, bei schlechter umsetzung dieser technik wirkt das bild schnell mal unwirklich
papajoe
ich finde gerade des venedig bild scheiße. es wirkt völlig unnatürlich, überfrachtet und sämtliche tiefenwirkung is hinfort. es wirkt eher wie gemalt, was ich aber von nem foto weder erwarte noch will.

und was meinste damit, dass unser hirn einzelbilder zusammenbaut? mal abgesehen von rechtes und linkes auge.
ich meinte das eher anders. ja, unser gesichtsfeld is im vergleich zu nem foto riesig und auch der dynamische umfang unserer visuellen wahrnehmung größer. allerdings nimmt man nur einen kleinen teil wirklich bewusst war. das hirn fokusiert (nich im optischen sinne) auf einen eingeschränkten bereich, alles was außen rum passiert, is nur beiwerk. die detailfülle unserer wahrnehmung is theoretisch riesig, wird aber durchs hirn eingeschränkt.
sQeedy
müßig, dieser vergleich. vergleicht unser auge lieber mit einer videokamera. in dem fall sehen kameras sogar noch mehr als wir jemals wahrnehmen könnten. (z.B. spezielle wellenlängen des lichtes, die uns verborgen bleiben)
die detailfülle ist eben nicht theoretisch riesig. durch die nachbereitung und interpretation der simplen informationen des auges im gehirn können wir oft sogar mehr wahrnehmen, als wir eigentlich erkennen sollten. was die bewusste wahrnehmung angeht, so spielst du vermutlich auf das direkte feld der aufmerksamkeit an, doch auch im randbereich können wir zb. noch sehr gut bewegungen wahrnehmen. warum das so ist? wir sind jäger und müssen gut 3D vor uns sehen. andere tiere haben ein riesiges gesichtsfeld und nehmen ihre umgebung ganz anders wahr als wir. vögel und echsen sehen uv-licht und fledermäuse schall. das feld der wahrnehmung der umwelt ist hochinteressant. wenn ich mir die bilder mal so anschaue, dann finde ich sie doch sehr gelungen. die exemplarisch gezeigten sind von den künstlern natürlich auch noch dramatisiert worden, also betrachtet es nicht als versuch einer möglichst realen abbildung, sondern als kunstwerk.
Zappelfry
Papajoe ist mal wieder: Dagegen! Ich finde das gerade das Venedigbild an Tiefe gewinnt.
loco
seit wann entsteht eigentl. eine tiefenwirkung in einem bild durch detailverlust?
doch wohl eher durch die perpektivische verzerrung, tiefen unschärfe, ändernde texturen usw..

da spielt der detailgewinn in über- bzw. unterbelichteten bereichen doch keine rolle

und beim auge meinte ich mit den einzelbildern, dass unser auge nicht auf einmal das bild aufnimmt, was wir dann sehen, nein es bewegt sich pro sekunde was weiß ich wie oft und "rastert" unsere umgebung ab, wo das raster dann die 'feinste' auflösung bekommt, legt unser gehirn fest, indem es den fokus steuert, einerseits bewusst andererseits unbewusst durch reflexe.. aber das ganze wollen wir ja hier nicht ausdehnen, denn unsere wahrnehmung im ganzen ist sicherlich komplexer als das hier angesprochene verfahren shifty.gif
sQeedy
Zitat(loco @ 06 Jan 2007, 15:04)
und beim auge meinte ich mit den einzelbildern, dass unser auge nicht auf einmal das bild aufnimmt, was wir dann sehen, nein es bewegt sich pro sekunde was weiß ich wie oft und "rastert" unsere umgebung ab, wo das raster dann die 'feinste' auflösung bekommt, legt unser gehirn fest, indem es den fokus steuert, einerseits bewusst andererseits unbewusst durch reflexe..
*

das ist so nicht richtig. unser auge rastert nicht. es nimmt alles auf einmal auf.
papajoe
Zitat(Zappelfry @ 06 Jan 2007, 14:43)
Papajoe ist mal wieder: Dagegen! Ich finde das gerade das Venedigbild an Tiefe gewinnt.
*

das klingt so, als wäre ich aus prinzip dagegen. und mein name wird nich groß geschrieben, wink.gif
wie egsagt, ich habe mir die sache vor einiger zeit näher angeschaut udn meine schlüss egezogen.

Zitat(loco @ 06 Jan 2007, 15:04)
seit wann entsteht eigentl. eine tiefenwirkung in einem bild durch detailverlust?
doch wohl eher durch die perpektivische verzerrung, tiefen unschärfe, ändernde texturen usw..

da spielt der detailgewinn in über- bzw. unterbelichteten bereichen doch keine rolle
[...]

du widersprichst dir da teilweise selber. tiefenunschärfe zb geht mit detailverlust einher.
das venedigbild zb wirkt wie gemalt oder gerendert und unräumlich, weil der himmel grafisch genauso belastet is, wie der rest. er bewegt is in nem sehr ähnlichen tonwertbereich, wie der est. das is unnatürlich und sah garantiert in der realität nich so aus. das nimmt dem foto jegliche spannung.
es kann durchaus sein, dass da ergebnisse bei rauskommen, die schön sind, nur eben nich mehr natürlich (es sei denn, man arbeitet sehr dezent). und eben nich das, was ich persönlich von ner fotografie erwarte. andere leute dürfen das gerne anders sehen.
Chris
Zitat(sQeedy @ 06 Jan 2007, 15:23)
das ist so nicht richtig. unser auge rastert nicht. es nimmt alles auf einmal auf.
*

Allerdings hat man lediglich im fokusierten Bereich eine hohe Detailfülle. Außen herum wird es relativ schnell schwammig und undeutlich. Und zwar in einem Rahmen, gegen der aufgenommene Ausschnitt einer Fotokamera riesig wirkt.

Was also loco mit "rastern" meint, ist, dass viele Einzelbilder aufgenommen werden, und durch unser Hirn zu dem großen Ganzen zusammengesetzt werden.

Was meiner Meinung nach bei solchen Bildern passiert ist, dass man versucht, die Detailfülle und Anpassungsfähigkeit des menschlichen Auges in ein Bild zu pressen. So wie es auch damals schon die Maler riesiger Wandgemälde getan haben. So wie Canaletto der Jüngere zu seinem perspektivischen Fehler bei der Frauenkirche kam.

Das menschliche Auge passt sich natürlich immer an die Helligkeit an. Schaut es sich den Himmel an, so wird, das ganze Bild natürlich unterbelichtet, um das Auge nicht zu schädigen. Im Gegensatz dazu wird beim Betrachten dunkler Stellen das Bild überbelichtet. Da wir aber für jeden Augensprung (Sakkade) erneut die Einstellungen anpassen, fällt es uns nicht auf, dass wir den Himmel und die dunkle Ecke mit einer anderen Helligkeit gesehen haben. Das Gehirn modeliert etwas, dass aussieht wie ein HDR Bild (vermutlich aber besser).

Es ist aber ganz natürlich dass diese Bilder im ersten Moment unnatürlich wirken. Immerhin ist man von Bildern so etwas gar nicht gewöhnt (außer von Malereien). Deswegen auch immer der unwilkürliche Anklang. Zudem ist man natürlich auch nicht die großen Unterschiede gewöhnt, da ja das Auge auch immer nur einen kleinen Bereich (z.B. der Helligkeit) gleichzeitig aufnimmt, und niemals aber die ganze Fülle, wie sie uns das Bild entgegenschleudert.

Aber nimmt man sich das Bild wirklich vor und betrachtet es, als würde man vor dem realen Schauspiel stehen, dann hat man gute Chancen die ganze Schönheit zu entdecken. Das bedeutet aber, dass das Bild eine gewisse Größe haben sollte, so dass man nicht sofort alles auf einmal sieht, dass man sein Auge schweifen lassen kann und die Details entdecken lassen kann.
loco
hmm, dacht ich mir fast, dass du meine ungenaue formulierung als widerspruch darstellst shifty.gif
tiefenunschärfe ok, da gibt es detailverlust..
aber ich dachte, du willst darauf hinaus, dass ein foto nur tiefe bekommt, indem es auch unter- bzw überbelichtete bereiche besitzt (dort sind quasi keine informationen vorhanden)
da würde ich dir aber einfach unterstellen, dass du nichts anderes von herkömmlichen fotos gewöhnt bist und die neue, auf anderem wege gewonnene, detailvielfallt dir etwas ungewohnt, vielleicht sogar fehl am platz vorkommt

@sqeedy..
wie du aus der physik wissen dürftest, bündeln linsen das licht;
von normalem schulbio dürfte man auch wissen, dass wir einen "gelben fleck" ziemlich nah neben dem blinden fleck haben;

die randbereiche sind quasi unscharf und unser auge hat auch keine unendliche brennweite, ergo können wir ja garnicht alles auf einmal sehen

und selbst wenn jetzt an dieser schwammigen formulierung zum ablauf der wahrnehmung mit dem auge etwas nicht ganz passt (darfst du gerne korrigieren) eins bleibt jedenfalls fakt.. unsere auge grast stehts und ständig unsere umgebung ab, ohne dass wir das bewusst wahrnehmen..

oder willst du etwa einen ganzen forschungsbereich in frage stellen, der nur darauf beruht?

edt: im link auf 'eye tracking systems' klicken..
JoSchu
Ich hab das Gefühl, ihr redet aneinander vorbei.
Sqeedy redet von der reinen Wahrnehmung und hat auf dieser Ebene recht damit, dass das Auge das gesamte Blickfeld auf einmal erfasst, da es im Grunde eben doch nur eine Linse ist.
Loco spricht von Aufmerksamkeit (bewusste Wahrnehmung) und hat auf dieser Ebene recht damit, dass wir natürlich nicht alles auf einmal bewusst wahrnehmen, sondern in einer neuen Umgebung den Blick erstmal schweifen lassen. Die Selektion, was wir betrachten, wird dabei aber nicht im Auge vorgenommen, sondern auf einer späteren Stufe im Gehirn (wann genau, ist noch umstritten). Dabei werden Neurone, die einen bestimmten Teil des Gesichtsfeldes kodieren, in ihrer Aktivität verstärkt und andere gehemmt. Es muss bei einem Aufmerksamkeitswechsel also nicht zwangsläufig eine Augenbewegung geben, auch wenn dies im Regelfall so sein wird.
Die Blickbewegungsforschung erforscht entsprechend auch nicht die Wahrnehmung, sondern die Aufmerksamkeit(-slenkung) von Personen.
sQeedy
danke, joschu happy.gif
ich neige mein haupt vor euch.
loco
na dann dürften ja jetzt alle unklarheiten klar sein smile.gif
mArVinTheRobot
genuch geredet smile.gif

macht mal paar bilder, is ja kein fred wo's ums Ficken geht, hier hat jeder selber die Möglichkeit, sich mal auszuprobiern biggrin.gif
sQeedy
sobald ich meine neue cam in händen halte, mach ich mich ans werk yes.gif
Zappelfry
Um auch nochmal klugzuscheissen: Am Satzanfang wird auch dein Name großgeschrieben papajoe ;D
tingel
Mal ne Frage an die Photoshop Experten. Wenn man von Hand die Bilder mittels Masken und Thresholds usw. zu einem DRI vereinen möchte, steht man ja immer vor dem Problem, daß die Bilder der Belichtungsreihe exakt Deckungsgleich sein müssen.
Da das in der Praxis selbst mit einem guten Stativ sehr kompliziert ist (ich muß z.B. für jedes Bild den Selbstauslöser als Aufnahmemodus neu auswählen, dabei verruckelt die Kamera immer um ein paar Pixel [*]), muß man da wohl in der Software die Bilder etwas hin- und herschieben. Gibt es da irgendwelche schicken Tools dafür?

* eine mögliche Lösung wäre natürlich ein Fernauslöser...kostet so um die 20€
papajoe
sagen wir mal, jede cam hat nen selbstauslöser. die meisten modernen haben warscheinlich auch ne auto bracket funktion (dabei werden unter-, normal- und überbelichtet direkt hintereinander geschossen.)
kombiniert man diese beiden funktionen is das problem aus der welt. bei meiner geht das jedenfalls, wie ich so eben ausgetestet hab.
Hrothgar
Also bei meinem Stativ kann ich wunderbar das Rädchen drehen, ohne das sich die Kamera bewegt und damit entsprechend Aufnahmen machen. Das Ding sitzt bombenfest und war alles andere als teuer.

Die Autopbracket-Geschichte hat in der Tat fast jede halbwegs moderne Kamera, die hat aber auch ein paar Nachteile. Die Kamera geht damit von einer gemessenen mittleren Helligkeit aus und wenn der Lichtmesser da falsch lag, was er gerade nachts vor hell erleuchteten Gebäuden gern tut, kommt da nur Murks raus. Zweitens kann man meist nur um 2 Blendenstufen unter- bzw. überbelichten. Das mag zwar häufig reichen, oft isses aber auch ziemlich knapp. Und drittens limitiert diese Funktion die Bilderanzahl eben auf drei, zumindest bei vielen Kameras. Ich mach bei sehr komplexen Motiven aber ganz gern 5 oder gar 6 Aufnahmen, damit die Übergänge sauber berechnet werden können.

Ganz ehrlich, das ganze Automatikzeugs beruht auf irgendwelchen Algorithmen, die auf Durschnittswerte hin optimiert sind, wirklich schlau sind die nicht.
Ich pack die Kamera lieber auf ein ordentliches Stativ, stell alles manuell ein und nach ein paar Testschüssen und der Histogrammkontrolle weiß ich, wie ich belichten muss. Das klappt mit ein wenig Erfahrung (ist wirklich keine große Kunst) zuverlässig und schnell.

Hrothgar
Perseus
HDR Leserfotos für sponklick
schildkroet
Hat schon jemand Ergebnisse? Würde mich freuen mal was zu sehen smile.gif
tingel
Zitat(papajoe @ 13 Jan 2007, 15:52)
sagen wir mal, jede cam hat nen selbstauslöser. die meisten modernen haben warscheinlich auch ne auto bracket funktion (dabei werden unter-, normal- und überbelichtet direkt hintereinander geschossen.)
kombiniert man diese beiden funktionen is das problem aus der welt. bei meiner geht das jedenfalls, wie ich so eben ausgetestet hab.

Negativ, ebenfalls gerade ausprobiert. Meine Nikon D70 macht dabei nur das erste Bild der Reihe mit dem Selbstauslöser und geht dann automatisch wieder in den vorher eingestellten Modus zurück. Das finde ich für eine Nikon schon entäuschend, da die Philosophie der Firma ja maximale Ergonomie ist.

Zitat(Hrothgar @ 15 Jan 2007, 09:57)
Also bei meinem Stativ kann ich wunderbar das Rädchen drehen, ohne das sich die Kamera bewegt und damit entsprechend Aufnahmen machen. Das Ding sitzt bombenfest und war alles andere als teuer.

Hm, wenn das deine Erfahrung ist, dann mag das schon sein. Anderenseits kann ich mir das nur schwer vorstellen. Schon die kleinste Erschütterung bewirkt einen Versatz um ein paar Pixel. Bei 3000 Bildpunkten in der Breite und einem Öffnungswinkel von z.B. 15° sind ein Pixel nur 18 Bogensekunden.
Zitat
Die Autopbracket-Geschichte hat in der Tat fast jede halbwegs moderne Kamera, die hat aber auch ein paar Nachteile. Die Kamera geht damit von einer gemessenen mittleren Helligkeit aus und wenn der Lichtmesser da falsch lag, was er gerade nachts vor hell erleuchteten Gebäuden gern tut, kommt da nur Murks raus.

Mag sein, aber das läßt sich schon etwas verbessern, indem man das mit der Programm- oder Manuellen Funktion der Kamera kombiniert.
Zitat
Zweitens kann man meist nur um 2 Blendenstufen unter- bzw. überbelichten. Das mag zwar häufig reichen, oft isses aber auch ziemlich knapp. Und drittens limitiert diese Funktion die Bilderanzahl eben auf drei, zumindest bei vielen Kameras. Ich mach bei sehr komplexen Motiven aber ganz gern 5 oder gar 6 Aufnahmen, damit die Übergänge sauber berechnet werden können.
...

Gut, also üben wir noch etwas wink.gif
papajoe
gestern kam ich doch tatsächlich in eine situation in der meine cam nich mehr das wollte/konnte, was ich gerne hätte:
bild kann nicht angezeigt werden

da ich der ganzen hdri sache aber nich so grundsätzlich abgeneigt bin, wie das im januar vielleicht rüberkam, sondern nur diesen übertriebenen und unwirklich wirkenden anwendungen, hab ich die beiden belichtungen da gestern manuell zusammengeschustert und ein ergebniss nach meinen vorstellungen bekommen:
bild kann nicht angezeigt werden
tuesday
Joar ich denke mit dem Ergebnis kannste zufrieden sein....
Niveau
Ich finde Dynamic Range sehr, sehr wichtig. Das deutsche Wort ist Kontrastumfang.

Für manche die noch nicht genau wissen, was es ist, die Kamera kann also den tatsächlichen Helligkeitskontrastumfang nicht verarbeiten, helle Flächen werden überhell bis weiß und dunkle zu schnell schwarz, die "saufen ab".

Deshalb fotografiert man meist mit Sonne im Rücken (gleichmäßige Ausbelichtung der Bildfläche, weniger Helligkeitsunterschiede) oder mit Film (immer noch mehr Dynamikumfang als Digitalkameras). Auch ein Blitzlicht hilft bei Gegenlicht.

Für das führende Fotoverabeitungsprogramm Photoshop gibt es viele Plugins, die die Dynamic Range "erhöhen". Dunkle Ecken werden aufgehellt, der Minikontrast darin aufgespreizt, mehr Zeichnung wird sichtbar, oder helle Fläche umgekehrt.

Digitale Fotokenner fotografieren RAW statt JPG, denn auch die Digitalisierung vernichtet Infos, und das RAW->JPG - Programm des Computers, zum Beispiel BreezeBrowser kann die Konvertierung besser vornehmen als die Kamera selber.

Ganz geschickt aber nie vollkommen natürlich: Mit mehreren verschiedenen Belichtungen (meist reichen zwei) fotografieren und das dann zu einem Bild zusammenbasteln statt nur hell und dunkle ungezeichnete Flächen zu haben (mit Photoshop-Plugins zum Beispiel).

Google: Dynamic Range Increase (DRI). (Image Retouching http://forums.dpreview.com/forums/forum.asp?forum=1006)

Eine SLR oder andere Kamera mit großen statt unbedingt vielen Pixeln rauscht nicht nur weniger bei hohen ISO-Werten, sie hat auch mehr Dynamic Range. Viele Jahre tat sich nix, aber die neuen Kameras haben in der selben Klasse wirklich etwas mehr Dynamic Range als ältere. Man kann am Rathausturm sehen, wie spät es war, undenkbar mit nur einer Belichtung, da der Fluß ja fast stockdunkel war. Die Wiese links könnte noch mehr Zeichnung haben, sah dann aber überreal klar aus.
tuesday
Gibts das Foto auch in groß?
Perseus
Gibts den Text auch mit Quellenanagbe?
Niveau
Quelle ist /index.ph...pic=17925&st=45 und Bild gibt´s auch in groß. smile.gif

happy?
wirkt aber irgendwie verwaschen als wenn die einzelnen aufnahmen nicht ganz deckungsgleich wären oder so... zumindest im kran sollte man für ne überzeugende hdri eigentlich noch die struktur der träger erkennen können.
Niveau
ja das kann sein, kann auch Nebel gewesen sein, weiß ich nicht mehr so genau, 50mm f1,4 * 1,6 Cropfaktor macht 80 mm Brennweite.
gfx-shaman
@papajoe: thumbsup.gif schaut gut aus was den kontrast betrifft, der ausschnitt allerdings sagt mir nicht so zu. irgendwie rutsch ich mitm blick immer rechts raus.
mArVinTheRobot
* furchtbare Bildaufteilung
* furchtbare Farben



zwei tipps:
* http://de.wikipedia.org/wiki/Blaue_Stunde
* http://de.wikipedia.org/wiki/Drittel-Regel
papajoe
Zitat(gfx-shaman @ 27 Jul 2007, 03:02)
@papajoe: thumbsup.gif schaut gut aus was den kontrast betrifft, der ausschnitt allerdings sagt mir nicht so zu. irgendwie rutsch ich mitm blick immer rechts raus.
*

ich weiß, das habich auch gemerkt, dasses kippt. aber das feld is nunmal ein hang, da kann man nichts dran machen, ^^
aber war ja sowieso eher ein dokumentarischer schnappschuss ohne den anspruch, beim fotowettbewerb teilzunehmen.