Como muchas veces veo a mucha gente empeñada en buscar eso del color real o tal cuál sale de la cámara, trato de explicar (dentro de mis limitaciones) en este hilo el por qué no existe tal cosa.
O el por qué es falso que el usar Adobe RGB o sRGB de lugar a colores diferentes.
Si los colores de tu imagen entran en el sRGB da igual que uses uno u otro, el color será el mismo (sus numeritos no).
Los espacios más amplios son necesarios cuando tienes colores que en la imagen que no están en tu paleta (en tu espacio de color).
Es un error conceptual.
Los espacios de trabajo (propiamente hablando, los perfiles los tienen los dispositivos) son una forma de representar el color necesaria para su tratamiento matemático.
Hay muchos espacios con sus pros y sus contras y programas que admiten unos u otros.
Cada uno tiene sus limitaciones de cúales son los colores que pueden representar y cuáles no.
Si tu espacio de color es suficiente para cubrir todos los colores presentes y el procesamiento de color es correcto (por parte de tu software) da un poco igual cuál sea el espacio que utilices.
Los números que los representan son diferentes pero los colores son los mismos.
Los problemas vienen cuando en tu imagen hay colores que tu espacio de color no tiene.
Entonces estás cambiando los colores, los puedes recortar, modificar todos ligeramente, pero alguna modificación hay que hacer al color, si no están en tu paleta (tu espacio de color) no los puedes emplear ni representar.
Así que para poder manejar una imagen con gran colorido y conservar esos colores, sí, tienes que usar adobe RGB o ProPhoto que son más amplios, y así tus colores sí estarán y no se perderán.
Pero Adobe RGB ni satura más la imagen ni nada de eso, simplemente puede respresentar esos colores más extremos y saturados que sRGB no puede.
El problema está en cuando esa imagen la quieres llevar a un dispostivo de salida o un fichero para que lo vea otra gente.
Tu pantalla es muy probable que no pueda representar todos los colores de AdobeRGB, así que en tu imagen puede haber muchos colores que no estás viendo en tu pantalla.
Si tu imagen va a parar a imprimir el problema es similar: una impresora puede mostrar una gama muy diferetne de colores a una pantalla.
Y si va para la web, ahí usamos casi exclusivamente sRGB. Simplemente por ser el mínimo común denominador que se ve más o menos bien en todas las pantallas y navegadores.
Muchos navegadores ni si quiera hacen gestión de color o el que hacen no lo hacen bien, simplemente tiran los números del raw a la pantalla sin tener en cuenta ni el espacio de color de la imagen ni el perfil de tu monitor (así que las imágenes las verás con satuuraciones más exageradas y peores colores y más alejados de la realidad cuanto mejor sea tu monitor).
Todos los monitores muestran más o menos bien los colores contenidos en sRGB.
Por tanto para exportar esa imagen al jpeg tienes que hacer un proceso de conversión desde Adobe RGB (o el perfil de tu imagen) a sRGB y es ahí donde puedes perder saturación o variar los colores (según el intent que utilices no perderás saturación si usas el absoluto, pero recortarás los colores que se salgan de rango).
Para compensar las diferencias en la medida de lo posible tienes que jugar con la saturación u otros ajustes.
Pero será imposible dejar la imagen tal cuál estaba, ya que tiene colores que no están en tu paleta.
Para esos ajustes y para indicarte si hay colores que no ves en tu pantalla se inventaron lo las pruebas de pantalla y los avisadores de gama.
El otro tema que planteas de perfiles de cámara es diferente.
Eso forma parte del proceso de convertir los número almacenados en el raw en colores reales.
La mayoría de los reveladores no usan perfiles ahí, el LR y ACR desde luego no lo hacen, ni C1 (dxo me parece que es uno de los pocos que puede usar perfiles ICC propiamente dichos para la interpretación del color de la cámara).
Lo que se usan son matrices de transformación LUT que no son ni más ni menos que una especie de curvas definidas por tramos para cada canal por separado que mapea un nivel de entrada del rojo de la cámara en un nivel de salida del canal rojo del espacio CIE XYZ (donde el rojo viene a ser el X), lo mismo para los otro canales.
Cuando tú seleccionas diferentes perfiles de la cámara estás escogiendo diferentes matrices LUT para hacer esa transformación, que están necesariamente alterando la interpretación del color de una u otra forma (da igual si lo haces en la cámara o en el software del revelado, estás manipulando ése color e interviniendo en él, pero es que siempre lo haces de una u otra manera, porque la cámara no es un espectrómetro).
No existe nada parecido al color real en la cámara.
El color real está representado por el espectro de colores (niveles de energía que llegan en cada frecuencia del espectro visible) a un punto de la imagen determinado. No puede ser representado por un número, sino que el espectro completo serían infinitos números en cada punto que respresentan los niveles de enertía de cada frecuencia (comprenderás que eso no es lo que capta la cámara).
Lo que capta la cámara (al igual que el ojo humanon) es ése espectro pasado a través de un filtro de color con un espectro de absorción determinado (que cada fabricante trata de ajustar para que se parezca al del ojo) y eso te da un único número (matemáticamente hablando es la convolución del espectro lumínico que llega por el espectro característico del filtro).
Hay infinitas combinaciones de espectros de color que te dan el mismo número.