• Hallo TT-Modellbahner, schön, dass du zu uns gefunden hast.
    Um alle Funktionen nutzen zu können, empfehlen wir dir, dich anzumelden. Denn vieles, was das Board zu bieten hat, ist ausschließlich angemeldeten Nutzern vorbehalten. Du benötigst nur eine gültige E-Mail-Adresse und schon kannst du dich registrieren.
    Deine Mailadresse wird für nichts Anderes verwendet als zur Kommunikation zwischen uns.
    Die Crew des TT-Boardes

HDR-Bilder (High Dynamic Range = maximale Kontrastverhältnisse)

Das ist alles eine Frage des Aufwands und ich wollte hier nur zeigen, was mit einfachen Mitteln und ohne Mega-Nachbearbeitung mitunter geht und was nicht. Aber irgendwie habe ich das Gefühl, dass das gar keinen wirklich interessiert.

Es interessiert mich schon, nur braucht man keine "Mega-Nachbearbeitung", solche Ergebnisse mit einem RAW-Bild hinzubekommen, was Du uns mit einem HDR demonstrieren möchtest. Bilder müssen grundsätzlich sowieso bearbeitet werden, wenn man die digitale Fotografie nur halbwegs ernst betreibt. Und da ist das im Ganzen gesehen ein relativ geringer Aufwand. Was Du über jpg-Bilder und deren Farbtiefe hier ausführst, ist ja absolut korrekt, nur Du hast einen Fehler gemacht und uns am Anfang Motive präsentiert, die kein HDR brauchen, um die Details darzustellen. Deswegen denke ich, ist die Diskussion in eine etwas andere Richtung als geplant gegangen.

Grüße
 
öhm... Harka
3 Kanäle à 8 Bit macht bei mir 2^24 - Du hast nämlich die Luminanz vergessen ohne die das YCbCr-Farbmodell nicht funktionieren kann. ;)
Raw-Formate speichern lediglich den RGB-Farbraum aber auch hier mit 8 Bit pro Kanal. In der professionellen Technik geht es mittlerweile bis etwa 14 Bit - zu astronomischen Preisen.
Nebenbei bedeutet eine höhere Auflösung bei gleicher Pixelgröße eine größere Neigung zum thermischen Rauschen.
HDR ist bei mindestens zwei aufgenommenen Bildern geradezu dafür prädestiniert genau dieses Rauschen durch die Verrechnung der Aufnahmen zu reduzieren. Die Sternekieker machen in ihren Teleskopen auch nix anderes (okey zu anderen Zwecken aber das Prinzip ist das gleiche)
 
Es interessiert mich schon, nur braucht man keine "Mega-Nachbearbeitung", solche Ergebnisse mit einem RAW-Bild hinzubekommen, was Du uns mit einem HDR demonstrieren möchtest.
Das sehe ich anders. Gerade das erste Bild gewinnt durch die Nebel und Rauchschwaden enorm, welche das jpg gar nicht mehr enthält und hier auch mit der tollsten Nachbearbeitung nicht mehr zu erhalten wäre.
Die weiteren Bilder mit den Loks zeigen aber, dass HDR kein Allheilmittel ist und zum Teil auch nach hinten losgehen kann.
 
Das sehe ich anders. Gerade das erste Bild gewinnt durch die Nebel und Rauchschwaden enorm, welche das jpg gar nicht mehr enthält und hier auch mit der tollsten Nachbearbeitung nicht mehr zu erhalten wäre.

Aus einem jpg ganz sicher nicht, aus einem RAW aber schon, völlig ohne HDR.
Aber ganz nebenbei zum Bild direkt: was nützen mir die schönsten Rauchschwaden, wenn die Lok dadurch völlig matschig wird?

Grüße
 
Noch mal: RAW ist kein HDR. RAW ist das unkomprimierte Rohbild (Roh=Raw), wie es aus dem Chip kommt in einem propäritären Format. Welcher Technik sich dieser Chip dabei bedient, ist dabei irrelevant. In aller Regel bastelt sich die Kamera daraus ein komprimiertes jpg. Je nach Rechenleistung und den verwendeten Algorithmen fällt das Ergebnis aus. Das Speichern im RAW Format und die anschließende Bearbeitung ermöglicht dem Begabten durch die größere vorliegende Bildinformation in der Regel bessere Ergebnisse als der Kamera selbst.
Eine Analogie: Polaroid vs. selbstentwickelten klassischen Farbnegativfoto. Auch hier ist bei Bearbeitung durch den Befähigten von Hand in der Regel besser als eine Maschine.
 
Aus einem jpg ganz sicher nicht, aus einem RAW aber schon, völlig ohne HDR.
Sicherlich, aber mit welchem Aufwand? Ich reize den RAW-Shooter ja auch gerne mal aus, aber da experimentiere ich eine lange Zeit, bis das Optimum raus kommt. Auch Corals-RAW-Import leistet gewaltiges - aber erst nach mehreren Minuten Arbeitszeit. Das von mir hier genannte Programm liefert ähnliche HDR-Bilder in Sekunden, ohne das ich mich um den Schwarzwert, Kontrast oder Intensität jedes einzelnen Farbkanals kümmern muss. Die Ergebnisse habe ich gepostet, mit all ihren Stärken und Schwächen. Es sollte eine Anregung sein und auch für mich im Dialog zu besseren Bildern führen. Ein alternatives Programm wurde genannt - das war eine der Infos, die ich aus solchen Diskussionen haben wollte. Wie machen es andere und wohin und zu welcher Qualität führt das? Andere meinen hier Glaubenskriege führen zu müssen.
 
Sicherlich, aber mit welchem Aufwand?

Um den Dampf oder die Wolkenkonturen herauszuarbeiten muß man meist nur die "Lichter" herausnehmen. Denn meist sind diese Bereiche "überbelichtet". Da schiebt man bei Lightroom einfach einen Regler nach links.

Das von mir hier genannte Programm liefert ähnliche HDR-Bilder in Sekunden, ohne das ich mich um den Schwarzwert, Kontrast oder Intensität jedes einzelnen Farbkanals kümmern muss.

Richtig, aber um den Preis des Rauschens, der Unschärfe und unnatürlichen Farben, wie zu sehen war. Ein Bild mit der fehlenden Schärfe ist für mich ein Fall für die digitale Mülltonne. Was nützen mir denn dann die sichtbaren Konturen?

Die Ergebnisse habe ich gepostet, mit all ihren Stärken und Schwächen. Es sollte eine Anregung sein und auch für mich im Dialog zu besseren Bildern führen. Ein alternatives Programm wurde genannt - das war eine der Infos, die ich aus solchen Diskussionen haben wollte. Wie machen es andere und wohin und zu welcher Qualität führt das? Andere meinen hier Glaubenskriege führen zu müssen.

Meine Anregung, kein alternatives Programm, sonern ein RAW-Bild vernünftig belichten und bearbeiten. Ich bleibe dabei, für Deine Szenen braucht es kein HDR. Deine Bilder, wurden, wenn man das Gesamtpaket betrachtet, eher verschlimmbessert durch HDR.

Grüße
 
das funktioniert aber auch nur so lange, wie das Original-jpg in den dunklen Bereichen noch zeichnung hatte. Ist die weg, kann man auch mit der Erhöhung des Gammawertes nichts mehr verschlimmbessern. Was weg ist im jpg bleibt auch weg, im zu hellen, wie im zu dunklen Bereich.

Grüße

1 Thema = 1000000 Meinungen .

Ja das stimmt natürlich , aber es ist manchmal außerst erstaunlich wieviel Informationen in schwarzen Flächen noch selbst bei jpgs enthalten sind.

Gutes Beispiel sind Loks und Waggons mit schwarzem Fw/Rahmen , am besten noch im Schatten stehend. Wenn man am Gammadreher dreht, kommt gaaaaanz viel zum Vorschein.:respekt: Und ich mach das mit dem einfachsten Irfanview.
 
1 Thema = 1000000 Meinungen .

Nur kann man die ein oder andere Meinung auch mit Fakten belegen. Der Threadersteller hat sich ja eindrucksvoll selbst widerlegt. ;-)

Gutes Beispiel sind Loks und Waggons mit schwarzem Fw/Rahmen , am besten noch im Schatten stehend. Wenn man am Gammadreher dreht, kommt gaaaaanz viel zum Vorschein.:respekt: Und ich mach das mit dem einfachsten Irfanview.

Dann möchte ich aber mal den Rest des Bildes sehen, wie dieser dann aussieht. Mit Irfanview hab ich auch jahrelang gearbeitet, weil ich zu geizig war, in richtige Software zu investieren. Für eine einfachste Bildbearbeitung ist das Programm absolut ausreichend. Was man aber dagegen mit kostenpflichtiger Software anfangen kann, da liegen Welten dazwischen und das ganz ohne den preislichen "Überflieger" Photoshop.

Grüße
 
Na wenn du es sagst, dann ignorieren wir einfach die Fakten wie jenen, dass Kontrastumfang und Farbraum bei einem CMOS-Sensor systembedingt viel größer ist und das ein Rauschen erst dann auftritt, wenn bei CCD schon längst alles im Nebel verschwindet. Es ist bestimmt reiner Zufall, dass in faktisch allen hochwertigen Kameras CMOS-Sensoren verbaut werden.

Und nochmal die Frage: Warum soll dann bitte ein RAW aus einer Knipse mit CCD kein "richtiges" RAW sein, aber eines aus ner CMOS-Knipse?

Bitte diese Frage beantworten. Dass Sensoren unterschiedlich stark rauschen ist keine Neuigkeit. Und auch bei CMOS gibt es große Unterschiede. Was das mit "richtigem" und "falschem" RAW zu tun hat, habe ich noch nicht verstanden.


Grüße
Adrian
 
Ich mach mal den Versuch die persönlichen Sticheleien wieder raus zu bekommen:

Ein preiswerter CCD-Sensor ist technologisch gar nicht dazu in der Lage den Kontrastumfang und den Farbraum eines CMOS-Sensors wiederzugeben. Den meisten Leuten genügt dennoch der CCD-Sensor und das ist keine Kritik. Mit mehreren unterschiedlich belichteten Aufnahmen kann man mit einem CCD-Sensor einen ähnlich großen Kontrastumfang und den Farbraum über die HDR-Fotografie erstellen, jedoch funktioniert das nur bei statischen Motiven.

Ein CMOS-Sensor hingegen kann systembedingt einen viel größeren Kontrastumfang und Farbraum erfassen. In der Praxis hat sich hat sich true color (24 bit) bisher durchgesetzt, was den 16 bit (high color) der CCD-Sensoren um den Faktor 256 überlegen ist. Das bedeutet, dass im RAW-Format eines CMOS-Sensors jede Farbe in 256 weiteren Abstufungen dargestellt werden kann, gegen über dem jpg-Bildern der CCD-Sensoren.

Aber auch ein möglicherweise von einem CCD-Sensor angebotenes RAW-Format ist auf Grund der Technologie nicht dazu in der Lage den selben Kontrastumfang und Farbraum wie ein CMOS-Sensor zu haben. Du kannst mit dem Trabbi nicht Langholz fahren. Was glaubst du denn ist der Grund, warum faktisch alle hochwertigen Fotoapparate CMOS-Sensoren haben? Klar, die sind teurer, aber die haben rein von der Technologie her nicht nur ein wesentlich geringeres Rauschen sondern eben auch einen wesentlich größeren Kontrastumfang und Farbraum.

Und hier kommen wir wieder zurück auf "Los". Um den größeren Kontrastumfang und Farbraum in RAW-Bildern tatsächlich umsetzen zu können, bedarf es Hilfsmittel. Eines davon ist die HDR-Bildbearbeitung, für welche man bei CMOS-Sensoren nur eines RAW-Bildes Bedarf, aus dem die Belichtungsreihe auch nachträglich ermittelt werden kann. Meine Versuche in der Richtung habe ich gepostet, aber statt gescheiter Tipps kommt von den einigen hier etwas anderes. Mal wieder. Ok, es war ein Versuch.
 
das HDR-Bild ist immer das erste


Hallo Harka, ich beschäftige mich mit HDR schon einige Jahre und würde meinen, dass man deine Ergebnisse auf Seite 1 auch locker mit der RAW Datei erzielt. Was nicht abwertend gemeint ist.

Edit: sorry, ich habe jetzt nicht alle Beiträge gelesen :)

Ps: Ich bin mal so frei und poste ein Foto von mir. Dieses Ergebnis bekommt man im RAW/ JPEG Format definitiv nicht hin.

proxy.php
 
...In der Praxis hat sich hat sich true color (24 bit) bisher durchgesetzt, was den 16 bit (high color) der CCD-Sensoren um den Faktor 256 überlegen ist. Das bedeutet, dass im RAW-Format eines CMOS-Sensors jede Farbe in 256 weiteren Abstufungen dargestellt werden kann, gegen über dem jpg-Bildern der CCD-Sensoren...
Wirf bitte die Dinge nicht durcheinander. Egal ob das Bild von einer Röhre oder von einem Chip aufgenommen wurde - HDR bedeutet das mindestens zwei unterschiedlich belichtete Motive zur Erhöhung des gesamten Kontrastumfangs miteinander verrechnet werden. Wie hoch der Umfang der Aufnahmegeräte dabei ist spielt keine Rolle.
Sowohl CMOS als auch CCD erzeugen Bilder im RGB-Farbraum oder wie würdest Du es erklären das sich in der professionellen Kameratechnik bis heute 3-Chip-Geräte mit CCD-Sensoren als Stand der Technik gehalten haben? ;)
Im Bereich der Fotographie und Consumer bzw. Semiprofessionellen Kameratechnik bietet CMOS den "Vorteil" der elektronischen Helferlein welche direkt an der Quelle arbeiten weil sie in den Sensor integriert werden können um den Aufwand für optische Systeme zu reduzieren.
Optimal ist die Lösung nicht aber in die Grenzbereiche dürfte man als Ottonormalanwender kaum kommen.
Deine Aussage zum Farbraum wäre insofern auch zu hinterfragen weil Optiken mit Prisma und 3 Sensoren prinzipiell eine Optimierung zu den jeweiligen Aufnahmespektren und damit eine Erweiterung des aufnehmbaren Farbraums erlauben sofern die nachfolgende Peripherie überhaupt in der Lage ist diese zu verarbeiten und spätestens hier ist der Knackpunkt im System gefunden:
Geräte die in der Lage sind mehr als 8 Bit pro Farbkanal darzustellen wirst Du in der Consumer oder Semiprofessionellen Technik nicht finden.
 
HDR bedeutet das mindestens zwei unterschiedlich belichtete Motive zur Erhöhung des gesamten Kontrastumfangs miteinander verrechnet werden.
Wo steht das? Wer bestimmt das?

Eigentlich sehe ich hier ohnehin weniger HDR (mangels potentem Widergabegerät!) als eher auf LDR umgerechtete Aufnahmen unterschiedlicher Herkunft. Daher auch die künstliche (nicht künstlerische) Erscheinung...
 
Man sollte da Unterscheiden:
HDR: in der Regel eine 32 Bit tiefe Datenbasis
DRI: Hier wird der Dynamikumfang auf mehrere Bildateien einer Belichtungsreihe aufgeteilt.
Quelle:
Stefan Gross: Das Profi-Handbuch zur Canon EOS 7D Seite 74 ff.

By the Way: auch die Flaggschiffe von Canon im Vollformat liefern "nur" 14 Bit Farbtiefe, können nach obriger Definition also per se kein HDR, ich weiß jetzt nicht was die hier bisher Bilder zeigenden für Kameras verwenden, wirkliche, für mich erkennbare HDR Bilder waren nicht dabei. Nur eine DRI Aufnahme eines Straßenbahnwagens, die für mich den Anspruch an HDR erfüllt hat. Der Rest für mich sehr, sehr böse überspitzt formuliert: Quietschbunter Pixelbrei.
 
@Per:
...HDR-Bilder können (...) aus einer Belichtungsreihe von Fotos mit niedrigem Dynamikumfang (low dynamic range, LDR) rekonstruiert werden...
Unter anderem sagt das diese Quelle oder diese oder diese oder... ;)
Die Spezialknippsen, auf die auch verwiesen wird, machen nichts anderes nur ist der Rechenprozess hier schon in das Aufnahmegerät integriert.
Wenn die Belichtungszeiten und Empfindlichkeiten gleich bleiben ist eine starke Reduktion des Rauschanteils bei gleichzeitiger Verstärkung dessen was man sehen will möghlich. Astronomen nutzen zum Beispiel diesen Effekt um aussagefähigere Bilder zu erzeugen.
 
Zurück
Oben