Man könnte das Thema jetzt breittreten bis auf Millimeterstärke, aber darauf kommt es nicht an. Bei der Fotobearbeitung verhält es sich wie bei den Reifen - jeder muss sein Ding finden.
Das Rohdaten im Prinzip das gleich wie fertig entwickelte JPG´s sind,würde ich jetzt nicht sagen.
RAW ist halt ein digitales Negativ,so wie früher die normalen Negative vor ihrer Entwicklung zum fertigen Foto.
Das habe ich so nicht gesagt - ein JPG ist IMMER aus dem RAW entwickelt, nur macht das im einfachen Fall die Kamera und nicht der PC.
Sobald du das RAW in den Konverter lädst, liegt es dort als 16 Bit Tiff vor. Welche hardwarenahen Eigenschaften der RAW Konverter hier anders in das Bild einfliessen lässt, spielt dabei keine Rolle - ich habe schon mit RAW Konvertern gearbeitet, bei denen das fertige Bild ein paar Pixel mehr am Rand hatte, als das O-Bild ;-). Das tut aber nichts zur Sache, was die restlichen Bildinformationen betrifft, das sind nun mal nur binäre Daten, die durch 16 Bit statt 8 Bit eine höhere Informationsdichte haben, aber keineswegs MEHR Information. Vergleichbar ist das mit einem Lineal, mit dem eine Strecke von sagen wir 8,7cm gemessen wird - die Mess-Skala ist mit Millimeter begrenzt. Und jetzt misst man die selbe Strecke mit einer Schiebelehre und kommt auf 8,75, weil man damit ebe auch 1/10mm messen kann. Wenn man jetzt die Strecke von 8,7 auf 8,8mm "vergrössert", spreizt man den messbare Strecke - beim Lineal ist das Ergebnis eben 8,7 ODER 8,8, aber bei der Schiebelehre hat man 10 Zwischenstufen.
Das sollte aber nur als Erklärung für die Frage sein "Wie bearbeitet man ein RAW?" und nicht in voller epischer Breite erklären, wie die Farbenlehre funktioniert. Weil sonst müsste man bei der ideologischen Diskussion um die RAW Entwicklung gleich in die Behandlung des Farbraums wechseln, warum Adobe-RGB so viel besser ist als SRGB (und es dem Normalanwender trotzdem nichts bringt), wie man seine Hardware kalibriert, etc., p.p.