Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Videoschnitt Allgemein-Forum

Infoseite // Sony: Smartphones übertreffen Großsensorkameras ab 2024



Frage von cantsin:


In einer firmeninternen Präsentation sagt Sony voraus, dass Smartphone-Kameras ab dem Jahr 2024 die Bildqualität von Wechselobjektivkameras ("ILCs", also DSLRs und Spiegellosen) übertreffen werden:





Wobei anzunehmen ist, dass sich das auf Stills und (noch) nicht auf Bewegtbild bezieht.



Space


Antwort von cantsin:

Dazu gibt's jetzt auch noch einen Nachschlag von Qualcomm bzw. eine praktisch gleiche Prognose:
https://www.androidauthority.com/smartp ... w-3183730/

DeepL-(KI...-) Übersetzung:
"KI ist eine der größten Entwicklungen im Bereich der Kameras, und Judd Heape, der führende Kamera-Entwickler bei Qualcomm, glaubt, dass sie in Zukunft den gesamten Bildaufnahmeprozess übernehmen könnte.

Der Einsatz von KI hat sich seit den 2018 erstmals vorgestellten Modi weiterentwickelt, aber Heape erklärt, dass KI in der Fotografie in vier Stufen unterteilt werden kann.

Die erste Stufe ist recht einfach: KI wird eingesetzt, um ein bestimmtes Objekt in einem Bild oder einer Szene zu erkennen. In der zweiten Stufe steuert die KI die sogenannten 3A-Funktionen, nämlich Autofokus, automatischen Weißabgleich und automatische Belichtung. Der Qualcomm-Ingenieur geht davon aus, dass sich die Branche derzeit in der dritten Phase der KI-Fotografie befindet, in der die KI eingesetzt wird, um die verschiedenen Segmente oder Elemente der Szene zu erkennen.

Laut Heape sind wir etwa drei bis fünf Jahre von dem heiligen Gral entfernt, bei dem KI das gesamte Bild verarbeitet:

'Stellen Sie sich eine Welt aus der Zukunft vor, in der Sie sagen: "Ich möchte, dass das Bild wie diese National Geographic-Szene aussieht", und die KI-Engine sagt: "Okay, ich werde die Farben, die Textur, den Weißabgleich und alles andere so anpassen, dass es wie das Bild aussieht, das Sie mir gerade gezeigt haben".



Sony hat Anfang des Jahres einige interessante Behauptungen aufgestellt, als ein Manager vorhersagte, dass Fotos von Smartphones in den nächsten Jahren die Bilder von DSLR-Kameras übertreffen werden. Das ist leicht auszumalen, wenn man den Fortschritt berücksichtigt, der bei Smartphones durch bessere Bildverarbeitung erzielt wurde. Aber Telefone haben aufgrund ihres dünneren Formfaktors im Vergleich zu DSLRs immer noch kleinere Komponenten.

Dies räumt Heape ein, obwohl er nach wie vor davon ausgeht, dass Smartphones herkömmliche Kameras hinter sich lassen werden. "Wenn es darum geht, die Bildqualität einer DSLR zu erreichen, ja. Ich denke, der Bildsensor ist so weit, und ich glaube, dass die Innovationen, die in mobile Bildsensoren einfließen, wahrscheinlich schneller und fortschrittlicher sind als in der übrigen Branche."

Er führt weiter aus, dass die in Smartphones verfügbare Prozessorleistung einen erheblichen Vorteil gegenüber DSLR-Kameras darstellt:

Das Processing im Snapdragon ist zehnmal besser als bei den größten und leistungsfähigsten Kameras von Nikon und Canon. Deshalb sind wir in der Lage, bei der Bildqualität neue Maßstäbe zu setzen. Denn obwohl wir ein kleines Objektiv und einen kleinen Bildsensor haben, verarbeiten wir ein Vielfaches von dem, was eine DSLR-Kamera leisten kann."
Also, einfacher ausgedrückt: die Reise geht hin zur Verschmelzung von Smartphone-Fotografie und den heutigen KI-Bildgeneratoren wie DALL-E und Stable Diffusion. Die Smartphones werden eine ähnliche KI haben wie das heutige "img2img"-Modul von Stable Diffusion, das bereits solche Transformationen beherrscht:


zum Bild


Und die 3-5 Jahre prognostizierte Entwicklungszeit sind wahrscheinlich noch nötig für Smartphone-SoCs, die diese Hochrechnungen hardwareoptimiert ausführen können.

Space


Antwort von roki100:

Das liest sich wie damals im Jahr 1995, als es darum ging, wie Autos im Jahr 2000 aussehen werden:

'Stellen Sie sich eine Welt aus der Zukunft vor, in der Sie sagen: "Bring mich nach New York", und die KI-Engine sagt: "Okay, ich fahre dich nach New York".

Smartphone-Kameras ersetzt doch jetzt schon einiges, doch es gibt eben auch etwas anderes, was nicht ersetzbar ist... auch wenn das andere nur spaß am Fotografieren mit ne echte Kamera heißt.

Space


Antwort von cantsin:

roki100 hat geschrieben:
Das liest sich wie damals im Jahr 1995, als es darum ging, wie Autos im Jahr 2000 aussehen werden:

'Stellen Sie sich eine Welt aus der Zukunft vor, in der Sie sagen: "Bring mich nach New York", und die KI-Engine sagt: "Okay, ich fahre dich nach New York".
Wenn Du mal mit DALL-E oder Stable Diffusion experimentierst, geht das genau das - aber natürlich nur als Bild.

Space


Antwort von dienstag_01:

Was wird z.B. in Smartphones gemacht: je nach Helligkeit werden einzelne Fotozellen als einzelne Fotozellen ausgelesen oder zu Gruppen zusammengeschaltet.
Meine Frage: macht das dann der RAW-Entwickler auch?
Wahrscheinlich wird man irgendwann über unsere Vorliebe für RAW verwundert lächeln ;)

Space


Antwort von cantsin:

dienstag_01 hat geschrieben:
Was wird z.B. in Smartphones gemacht: je nach Helligkeit werden einzelne Fotozellen als einzelne Fotozellen ausgelesen oder zu Gruppen zusammengeschaltet.
Meine Frage: macht das dann der RAW-Entwickler auch?
Wahrscheinlich wird man irgendwann über unsere Vorliebe für RAW verwundert lächeln ;)
Mein Google Pixel (6 Pro) speichert optional RAW-DNGs, die auch tatsächlich undebayerte DNGs sind, die sich mit RawTherapee, Lightroom & Co. bearbeiten lassen .

Aber in diese DNGs steckt trotzdem bereits die ganze 'computational photography' bzw. KI-Prozessierung des Telefons (auf der heutigen "Stufe 3", wie sie der Qualcomm-Manager nennt), inkl. HDR-Zusammenrechnung von Bildreihen mit Tonemapping und temporaler Entrauschung. Wenn man diese DNGs dann im Raw-Konverter öffnet, sind die immer perfekt belichtet - bis hin zu Spitzlichtern, die im Waveform-Monitor genau oben sitzen, aber nicht clippen.

Genaugenommen ist das bereits die KI-Simulation einer Raw-Datei.

Dazu gibt's auch ein schönes Interview mit jemandem, der am MIT zu diesem Thema arbeitet:
https://youtu.be/nk-26lSbIMk?t=196

Money quote des MIT-Forschers: "Photo realism is dead. We should just bury it, and it's all about hallucination".

Space


Antwort von dienstag_01:

cantsin hat geschrieben:
dienstag_01 hat geschrieben:
Was wird z.B. in Smartphones gemacht: je nach Helligkeit werden einzelne Fotozellen als einzelne Fotozellen ausgelesen oder zu Gruppen zusammengeschaltet.
Meine Frage: macht das dann der RAW-Entwickler auch?
Wahrscheinlich wird man irgendwann über unsere Vorliebe für RAW verwundert lächeln ;)
Mein Google Pixel (6 Pro) speichert optional RAW-DNGs, die auch tatsächlich undebayerte DNGs sind, die sich mit RawTherapee, Lightroom & Co. bearbeiten lassen .

Aber in diese DNGs steckt trotzdem bereits die ganze 'computational photography' bzw. KI-Prozessierung des Telefons (auf der heutigen "Stufe 3", wie sie der Qualcomm-Manager nennt), inkl. HDR-Zusammenrechnung von Bildreihen mit Tonemapping und temporaler Entrauschung. Wenn man diese DNGs dann im Raw-Konverter öffnet, sind die immer perfekt belichtet - bis hin zu Spitzlichtern, die im Waveform-Monitor genau oben sitzen, aber nicht clippen.

Genaugenommen ist das bereits die KI-Simulation einer Raw-Datei.

Dazu gibt's auch ein schönes Interview mit jemandem, der am MIT zu diesem Thema arbeitet:
https://youtu.be/nk-26lSbIMk?t=196

Money quote des MIT-Forschers: "Photo realism is dead. We should just bury it, and it's all about hallucination".
Oder eher: Das ist die RAW-Simulation einer KI-Datei ;)
Weil, das Wesentliche ist das KI-generierte Bild.

Space


Antwort von soulbrother:

ja, alls ganz nett, hat aber mit der Abbildung der Realität nicht mehr viel zu tun.
Daher werde ich "RAW" ab sofort mit "echt" (weil ohne KI Änderungen/Manipulation) ergänzen).

Space


Antwort von vaio:

Bei "KI" sollte eigentlich unterschieden werden, ob es für realitätsnähere Aufnahmen genutzt wird - quasi als Ergänzung zur verbauten (bauartbedingt limitierten oder/und preiswerteren) Kameratechnik, oder ob es für einen bestimmten Look verwendet wird. Die Kombination von beiden ist vermutlich am häufigsten anzutreffen.
Ich habe das Gefühl, dass der Begriff "KI" mittlerweile in jeder App u. Hardware marketingmäßig Verwendung findet. Ähnlich wie in den 90‘er "Multimedia".

Space



Space


Antwort von cantsin:

vaio hat geschrieben:
Bei "KI" sollte eigentlich unterschieden werden, ob es für realitätsnähere Aufnahmen genutzt wird - quasi als Ergänzung zur verbauten (bauartbedingt limitierten oder/und preiswerteren) Kameratechnik, oder ob es für einen bestimmten Look verwendet wird. Die Kombination von beiden ist vermutlich am häufigsten anzutreffen.
Ich habe das Gefühl, dass der Begriff "KI" mittlerweile in jeder App u. Hardware marketingmäßig Verwendung findet. Ähnlich wie in den 90‘er "Multimedia".
In der Forschung ist KI ein weites Gebiet, aber in der Industrie bzw. kommerziellen Anwendung ist "KI" (AI) seit einem guten Jahrzehnt gleichbedeutend mit auf neuronalen Netzen basiertem machine learning bzw. Deep Learning.

Und wenn man sich dann Kameratechnologie ansieht, ist es in der Tat so, wie es der Qualcomm-Manager beschreibt:
  • Stufe 1 ist Autofokus mit machine learning-basierter Gesichts- und Objekterkennung. Da sind heute alle Kameras (bis auf Cine-Kameras von Blackmagic, ZCam & Co.).
  • Stufe 2 ist automatischer Weißabgleich, automatische Belichtung und Autofokus auf der Basis von machine learning.
    Wenn man mal sieht, wie (manchmal verblüffend) gut Auto-WB und automatische Belichtung mittlerweile bei allen mir bekannten heutigen Spiegelloskameras (Canon, Fuji, Panasonic, Sony) funktionieren, selbst bei Mischlichtsituationen oder bei Lichtsituationen, wo ein Farbstich nicht durch platten Auto-WB neutralisiert werden soll (wie z.B. ein Foto im Kerzenschein, bei dem praktisch alle heutigen Auto-WBs die nötige warme Farbtemperatur setzen), gehe ich schwer davon aus, dass diese Automatiken allesamt auf machine learning basieren, bzw. mit training sets von gut belichteten und gut farbbalancierten Bildern gefüttert wurden, und auf Grund dieser Motiverkennung den WB und die Belichtung steuern.
  • Stufe 3 ist HDR compositing, wo aus Hochgeschwindigkeits-Fotoserien, die z.T. mit unterschiedlicher Belichtung aufgenommen wurden ein Bild mit höherem Dynamikumfang und (dank temporal denoising) geringerem Bildrauschen zusammengerechnet wird.

    Hier scheiden praktisch alle herkömmlichen Kameras aus, weil man dazu elektronischen Verschluss, ultrahohe Serienbildraten + hohe Prozessorleistung braucht. Wie der Qualcomm-Entwickler sagt, geht das mit den heutigen Mobilkamerachips, weil die ungefähr die zehnfache Rechenleistung der Chips haben, die in herkömmlichen Kameras stecken.
    Und wie er auch sagt - und wie es in dem YouTube-Video mit dem MIT-Forscher noch detailliert erklärt wird -, wird da nicht einfach ein simples 08/15-Tone Mapping gemacht, sondern basiert das Tone Mapping und Compositing auf Deep Learning-basierter Motiverkennung der verschiedenen Bildteile - so dass die Kamera z.B. "weiss", dass sie (wie in dem Beispiel des Konzertfotos im oben verlinkten Wired-YouTube-Video) Gesichter in einer dunklen Zuschauermenge in der Belichtung hochziehen muss.
  • Stufe 4, die es noch nicht als Produkt gibt bzw. nur als Prototyp bei Dall-E ("Outpainting"), Stable Diffusion ("img2img") & Co., ist dann, dass die KI die Bilder vom Smartphone-Sensor quasi nur noch als Bildskizze plus automatisch erkanntem Input-prompt (wie: "Foto eines Konzerts mit einer Menschenmenge vor der Bühne") verwendet und dann zu einem virtuellen DSLR- oder Hasselblad-Foto hochrechnet, und zwar mit denselben Methoden wie Dall-E & Co (also durch Ersetzen der durch die Kamera aufgenommenen Bildteile durch Bildelemente aus der eigenen Bibliothek).


  • Space


    Antwort von rush:

    Xiaomi trifft auf den Leica M Mount...

    Gerüchte, Techdemo oder in Kürze Realität?

    Damit könnte in der Tat der Beginn einer neuen Ära beginnen in der klassische Kameras immer weniger Bedeutung erhalten... Ähnliche Konzepte hat es ja immer Mal wieder gegeben - aber mit dem M Mount wäre das schon eine wirklich interessante Variante wo die Sensoren immer größer werden...



    Space


    Antwort von cantsin:

    rush hat geschrieben:
    Xiaomi trifft auf den Leica M Mount...
    Das ist nur eine symbolische Illustration der Zusammenarbeit von Xiaomi mit Leica.

    Das Smartphone wird keinen M-Mount haben (was bei 1" Sensorgröße bzw. Verlängerungsfaktor 2,8 ggü. Kleinbild auch nicht sonderlich sinnvoll wäre).

    Space


    Antwort von Darth Schneider:

    Ist doch nur eine Frage der Zeit, dann werkeln MFT Sensoren in Smartphones…
    Gruss Boris

    Space


    Antwort von rush:

    cantsin hat geschrieben:
    rush hat geschrieben:
    Xiaomi trifft auf den Leica M Mount...
    Das ist nur eine symbolische Illustration der Zusammenarbeit von Xiaomi mit Leica.

    Das Smartphone wird keinen M-Mount haben (was bei 1" Sensorgröße bzw. Verlängerungsfaktor 2,8 ggü. Kleinbild auch nicht sonderlich sinnvoll wäre).
    Damit wären doch schöne Telebrennweiten möglich :-)

    Space


    Antwort von markusG:

    "Darth Schneider" hat geschrieben:
    Ist doch nur eine Frage der Zeit, dann werkeln MFT Sensoren in Smartphones…
    Gruss Boris
    Ne das gab es schon, ist leider geflopt. Auch die Aufsätze mit größeren Sensor (Olympus, Sony). Die Zukunft bleibt klein :P

    Space


    Antwort von Darth Schneider:

    Du hast recht. Wenn die Smartphones dann zu bullig werden, dann kaufen die Leute das Teil nicht, grosser Sensor hin oder her….
    Grosser Screen ist jedoch dann doch egal…;)
    Gruss Boris

    Space


    Antwort von Rick SSon:

    bald ist 24 ;-)

    Space


    Antwort von Alex:

    Aber diese Technologie der Smartphones könnte doch genauso in größeren dedizierten Foto-/Videokameras eingesetzt werden?
    Wenn diese Prozessorleistungen in (winzigen) Smartphones eingesetzt werden kann, wieso dann nicht in (viel) größeren Kameras?

    Space



    Space


    Antwort von cantsin:

    Alex hat geschrieben:
    Aber diese Technologie der Smartphones könnte doch genauso in größeren dedizierten Foto-/Videokameras eingesetzt werden?
    Wenn diese Prozessorleistungen in (winzigen) Smartphones eingesetzt werden kann, wieso dann nicht in (viel) größeren Kameras?
    Weil die japanischen Kamerahersteller aus Kosten-, Platzspar- und thermischen/Energiespargründen auf eine andere Chiptechnologie (ASICs) mit fest in die Hardware eingebrannten Funktionen setzen.

    Space


    Antwort von Alex:

    cantsin hat geschrieben:
    Alex hat geschrieben:
    Aber diese Technologie der Smartphones könnte doch genauso in größeren dedizierten Foto-/Videokameras eingesetzt werden?
    Wenn diese Prozessorleistungen in (winzigen) Smartphones eingesetzt werden kann, wieso dann nicht in (viel) größeren Kameras?
    Weil die japanischen Kamerahersteller aus Kosten-, Platzspar- und thermischen/Energiespargründen auf eine andere Chiptechnologie (ASICs) mit fest in die Hardware eingebrannten Funktionen setzen.
    Meine Fragen beantworten sich dadurch aber nicht. Wieso baut man dann diese Technologie nicht auch in größere Cams, wenn sie doch so viele (ich nenne es jetzt mal) "Möglichkeiten" bieten?

    Space


    Antwort von cantsin:

    Alex hat geschrieben:
    cantsin hat geschrieben:

    Weil die japanischen Kamerahersteller aus Kosten-, Platzspar- und thermischen/Energiespargründen auf eine andere Chiptechnologie (ASICs) mit fest in die Hardware eingebrannten Funktionen setzen.
    Meine Fragen beantworten sich dadurch aber nicht. Wieso baut man dann diese Technologie nicht auch in größere Cams, wenn sie doch so viele (ich nenne es jetzt mal) "Möglichkeiten" bieten?
    Weil die Kameras dadurch mehr Strom verbrauchen, mehr Kühlung und größere Gehäuse brauchen, und teurer in der Stückfertigung sind.

    Space


    Antwort von Darth Schneider:

    Das sind alles Gründe aber gar keine Hindernisse…
    Gruss Boris

    Space


    Antwort von Alex:

    cantsin hat geschrieben:
    Alex hat geschrieben:

    Meine Fragen beantworten sich dadurch aber nicht. Wieso baut man dann diese Technologie nicht auch in größere Cams, wenn sie doch so viele (ich nenne es jetzt mal) "Möglichkeiten" bieten?
    Weil die Kameras dadurch mehr Strom verbrauchen, mehr Kühlung und größere Gehäuse brauchen, und teurer in der Stückfertigung sind.
    Sorry, das erschließt sich mir immer noch nicht:

    Ich verstehe deine Ausführungen so, dass die Smartphone-Prozessoren durch ihre Geschwindigkeit in Verbindung mit auf die Hardware angepassten Software und entsprechender Implementierung eine Leistung bringen, die größere Kameras nicht bieten können.

    Diese Smartphone-Technologie passt in ein winziges (Smartphone-)Gehäuse, bei erstaunlicher Akkuleistung und passiver Kühlung.

    Wieso geht das dann nicht in (viel) größere Gehäuse, die z.T. noch aktiv gekühlt werden und über vielfältige, zuverlässige Stromlösungen verfügen?

    Und "teurer in der Stückfertigung", na und, dann kosten sie halt ein paar Euro mehr, ist doch okay, wenn auch mehr rauskommt?

    Space


    Antwort von dienstag_01:

    Alex hat geschrieben:
    cantsin hat geschrieben:


    Weil die Kameras dadurch mehr Strom verbrauchen, mehr Kühlung und größere Gehäuse brauchen, und teurer in der Stückfertigung sind.
    Sorry, das erschließt sich mir immer noch nicht:

    Ich verstehe deine Ausführungen so, dass die Smartphone-Prozessoren durch ihre Geschwindigkeit in Verbindung mit auf die Hardware angepassten Software und entsprechender Implementierung eine Leistung bringen, die größere Kameras nicht bieten können.

    Diese Smartphone-Technologie passt in ein winziges (Smartphone-)Gehäuse, bei erstaunlicher Akkuleistung und passiver Kühlung.

    Wieso geht das dann nicht in (viel) größere Gehäuse, die z.T. noch aktiv gekühlt werden und über vielfältige, zuverlässige Stromlösungen verfügen?

    Und "teurer in der Stückfertigung", na und, dann kosten sie halt ein paar Euro mehr, ist doch okay, wenn auch mehr rauskommt?
    Du meinst, man soll so einen Smartphone-Chip in eine größere Cam einbauen?

    Space


    Antwort von cantsin:

    Alex hat geschrieben:
    Ich verstehe deine Ausführungen so, dass die Smartphone-Prozessoren durch ihre Geschwindigkeit in Verbindung mit auf die Hardware angepassten Software und entsprechender Implementierung eine Leistung bringen, die größere Kameras nicht bieten können.

    Diese Smartphone-Technologie passt in ein winziges (Smartphone-)Gehäuse, bei erstaunlicher Akkuleistung und passiver Kühlung.

    Wieso geht das dann nicht in (viel) größere Gehäuse, die z.T. noch aktiv gekühlt werden und über vielfältige, zuverlässige Stromlösungen verfügen?
    Die Größen und der Stromverbrauch der Chips summieren sich. Du hast ja bei einer Kamera noch den Groß-Sensor, der ebenfalls kräftig Strom zieht, Platz braucht und Hitze entwickelt.

    Das würde dann wahrscheinlich bedeuten, dass eine MFT- oder APS-C-Kamera Gehäuse und Akkuleistung einer Fullframe-Kamera bräuchte.

    Und bei Blackmagics aktuellen "Pocket"-Kameras, die ebenfalls FPGAs statt ASICs haben, sieht man ja, was das in der Praxis hinsichtlich Gehäusegröße, Kühlungsbedarf und Akkulaufzeit bedeutet.

    Space


    Antwort von iasi:

    cantsin hat geschrieben:
    Alex hat geschrieben:
    Ich verstehe deine Ausführungen so, dass die Smartphone-Prozessoren durch ihre Geschwindigkeit in Verbindung mit auf die Hardware angepassten Software und entsprechender Implementierung eine Leistung bringen, die größere Kameras nicht bieten können.

    Diese Smartphone-Technologie passt in ein winziges (Smartphone-)Gehäuse, bei erstaunlicher Akkuleistung und passiver Kühlung.

    Wieso geht das dann nicht in (viel) größere Gehäuse, die z.T. noch aktiv gekühlt werden und über vielfältige, zuverlässige Stromlösungen verfügen?
    Die Größen und der Stromverbrauch der Chips summieren sich. Du hast ja bei einer Kamera noch den Groß-Sensor, der ebenfalls kräftig Strom zieht, Platz braucht und Hitze entwickelt.

    Das würde dann wahrscheinlich bedeuten, dass eine MFT- oder APS-C-Kamera Gehäuse und Akkuleistung einer Fullframe-Kamera bräuchte.

    Und bei Blackmagics aktuellen "Pocket"-Kameras, die ebenfalls FPGAs statt ASICs haben, sieht man ja, was das in der Praxis hinsichtlich Gehäusegröße, Kühlungsbedarf und Akkulaufzeit bedeutet.
    Wobei die kleineren Strukturen der Chips den Stromverbrauch und somit auch die Hitzeentwicklung reduzieren.
    Es ist eben auch eine Frage des Entwicklungs- und Produktionsaufwands.
    Apple konstruiert für ganz andere Stückzahlen, als Kamerahersteller - wozu auch die Produktionstechnik gehört.

    Das Problem ist doch eher die Optik, bei Smartphones.
    Den Bildkreis eines großen Sensors muss das Objektiv auch erstmal abdecken.
    Auch ein Nikon Z 26mm 2.8 ist schon 23,5mm lang. Das ist schon reichlich mehr, als die 8,25mm Dicke eines iPhone 15 Pro Max.

    Space


    Antwort von dienstag_01:

    Wir reden hier vom Automatik-Modus. Und wir reden von bearbeiteten, gerechneten - wie auch immer man das nennen will - Bildern.
    Jetzt (2024) kommen wir an den Punkt, dass die gerechneten Bilder - sagen wir ruhig - besser aussehen, als die ungerechneten (wenn wir uns auf den wesentlichen Unterschied beschränken: KI) Bilder aus Kameras mit größerem Sensor.
    Was heißt das?
    Der Automatik-Modus mit KI ist besser als der ohne KI.
    Rechnen lässt sich mit den Datenmengen aus kleineren Sensoren besser.
    Für klassische Fotoapparate bedeutet das, dass die Bilder erst in der Nachbearbeitung mit KI-Automatismen in Berührung kommen können.
    Für die rechnende KI ist es wahrscheinlich besser, wenn für ein optimales Ergebnis (National Geographics!) kein Fotograf zwischenrumgemurkst hat, also Blende und Belichtungszeit weg bzw. in die Hand der KI.
    Wenn der Vergleich Smartphone zu DSLM auch bei Größen oberhalb des Smartphone- oder Laptopbildschirms zu Gunsten der Smartphone-Cam ausfällt, dann kann man davon ausgehen, dass DSLMs von Smartphones geschluckt werden. Kurz bevor die von den KI-Bildgeneratoren verfrühstückt werden ;)

    Space



    Space


    Antwort von Alex:

    dienstag_01 hat geschrieben:
    Du meinst, man soll so einen Smartphone-Chip in eine größere Cam einbauen?
    Nein, ich meine, dass die großen Kameras mit der (ich nenne es mal) Smartphone-Technologie ausgestattet werden könnten um im Ergebnis davon zu profitieren.
    Hey, ich meine, wenn gemutmaßt wird, dass ab 2024 mit Smartphones bessere Bilder als mit Großsensoren gemacht werden können, warum also nicht? Was spricht gegen schönere Bilder? Abgesehen von ideellen Wünschen, das Bild wirklich selbst ohne KI zu gestalten, was ja aber immer noch möglich sein sollte (und auch seine Daseinsberechtigung noch lange haben wird), denn man kann die KI ja auch abschalten, geht beim Smartphone ja auch. Will nur fast niemand mehr.
    cantsin hat geschrieben:
    Die Größen und der Stromverbrauch der Chips summieren sich. Du hast ja bei einer Kamera noch den Groß-Sensor, der ebenfalls kräftig Strom zieht, Platz braucht und Hitze entwickelt.
    Sollte das ein ernsthaftes Hindernis sein? Ich kenne mich mit Kameratechnik zu wenig aus um das genau beurteilen zu können, aber ich drehe heutzutage mit Fullframe-Kameras plus externem Monitor den kompletten Drehtag mit einem (!) Akku.
    cantsin hat geschrieben:
    Das würde dann wahrscheinlich bedeuten, dass eine MFT- oder APS-C-Kamera Gehäuse und Akkuleistung einer Fullframe-Kamera bräuchte.
    So what? Es könnte sich ja dann selbst jeder überlegen, will ich eine Cam mit KI (etwas größer, mehr Stromverbrauch) oder bleibe ich lieber ohne KI und habs klein und kompakt.
    cantsin hat geschrieben:
    Und bei Blackmagics aktuellen "Pocket"-Kameras, die ebenfalls FPGAs statt ASICs haben, sieht man ja, was das in der Praxis hinsichtlich Gehäusegröße, Kühlungsbedarf und Akkulaufzeit bedeutet.
    Das kann ich nicht beurteilen, inwiefern sich das bedingt, ich finde BM macht Kameras die ganz tolle Bilder machen, aber haben irgendwie schon immer Probleme mit ihrer internen Akkulösung gehabt, jedenfalls sind das meine Erfahrungen.

    Space


    Antwort von Frank Glencairn:

    ...oder es passiert nix davon, wie bei dem original Glaskugel Artikel von Sony von 2022.

    Space


    Antwort von Frank Glencairn:

    Alex hat geschrieben:

    Hey, ich meine, wenn gemutmaßt wird, dass ab 2024 mit Smartphones bessere Bilder als mit Großsensoren gemacht werden können, warum also nicht? Was spricht gegen schönere Bilder? Abgesehen von ideellen Wünschen, das Bild wirklich selbst ohne KI zu gestalten, was ja aber immer noch möglich sein sollte (und auch seine Daseinsberechtigung noch lange haben wird), denn man kann die KI ja auch abschalten, geht beim Smartphone ja auch. Will nur fast niemand mehr.
    Ich denke das Problem dabei ist, daß sowas ja nicht gemacht wird daß Joe Shmock bessere Bilder bekommt, sondern hauptsächlich zur Gewinnmaximierung.

    Mit dem ganzen internen Kameragerechne kann man bei der Herstellung natürlich ungestraft minderwertige billig Komponenten verbauen, und damit ist es dann halt auch kaum mehr möglich das alles auszuschalten, ohne sich einen Massiven Qualitätshit damit einzufangen.

    Ein Beispiel für sowas ist das interne schönrechnen von Verzerrung, Breathing und anderen Problemen von Billigoptiken.

    Space


    Antwort von Alex:

    "Frank Glencairn" hat geschrieben:
    Ich denke das Problem dabei ist, daß sowas ja nicht gemacht wird daß Joe Shmock bessere Bilder bekommt, sondern hauptsächlich zur Gewinnmaximierung.

    Mit dem ganzen internen Kameragerechne kann man bei der Herstellung natürlich ungestraft minderwertige billig Komponenten verbauen, und damit ist es dann halt auch kaum mehr möglich das alles auszuschalten, ohne sich einen Massiven Qualitätshit damit einzufangen.

    Ein Beispiel für sowas ist das interne schönrechnen von Verzerrung, Breathing und anderen Problemen von Billigoptiken.
    Klar. Aber zur Gewinnmaximierung kommt es erst, wenn Joe Shmock mit einem Gerät wirklich (für sich subjektiv) besser Bilder macht, denn sonst kauft er den KI-Kram erst gar nicht.

    Space


    Antwort von dienstag_01:

    Alex hat geschrieben:
    dienstag_01 hat geschrieben:
    Du meinst, man soll so einen Smartphone-Chip in eine größere Cam einbauen?
    Nein, ich meine, dass die großen Kameras mit der (ich nenne es mal) Smartphone-Technologie ausgestattet werden könnten um im Ergebnis davon zu profitieren.
    Hey, ich meine, wenn gemutmaßt wird, dass ab 2024 mit Smartphones bessere Bilder als mit Großsensoren gemacht werden können, warum also nicht? Was spricht gegen schönere Bilder? Abgesehen von ideellen Wünschen, das Bild wirklich selbst ohne KI zu gestalten, was ja aber immer noch möglich sein sollte (und auch seine Daseinsberechtigung noch lange haben wird), denn man kann die KI ja auch abschalten, geht beim Smartphone ja auch. Will nur fast niemand mehr.
    cantsin hat geschrieben:
    Die Größen und der Stromverbrauch der Chips summieren sich. Du hast ja bei einer Kamera noch den Groß-Sensor, der ebenfalls kräftig Strom zieht, Platz braucht und Hitze entwickelt.
    Sollte das ein ernsthaftes Hindernis sein? Ich kenne mich mit Kameratechnik zu wenig aus um das genau beurteilen zu können, aber ich drehe heutzutage mit Fullframe-Kameras plus externem Monitor den kompletten Drehtag mit einem (!) Akku.
    cantsin hat geschrieben:
    Das würde dann wahrscheinlich bedeuten, dass eine MFT- oder APS-C-Kamera Gehäuse und Akkuleistung einer Fullframe-Kamera bräuchte.
    So what? Es könnte sich ja dann selbst jeder überlegen, will ich eine Cam mit KI (etwas größer, mehr Stromverbrauch) oder bleibe ich lieber ohne KI und habs klein und kompakt.
    cantsin hat geschrieben:
    Und bei Blackmagics aktuellen "Pocket"-Kameras, die ebenfalls FPGAs statt ASICs haben, sieht man ja, was das in der Praxis hinsichtlich Gehäusegröße, Kühlungsbedarf und Akkulaufzeit bedeutet.
    Das kann ich nicht beurteilen, inwiefern sich das bedingt, ich finde BM macht Kameras die ganz tolle Bilder machen, aber haben irgendwie schon immer Probleme mit ihrer internen Akkulösung gehabt, jedenfalls sind das meine Erfahrungen.
    Ich hatte das oben noch ein bisschen aufgeschlüsselt.

    Es sollte einem aber auch klar sein, dass die Inovationen aus dem Smartphonebereich sowieso in den DSLMs landen, wenn sie denn dort Sinn machen.

    Space


    Antwort von Alex:

    dienstag_01 hat geschrieben:
    Es sollte einem aber auch klar sein, dass die Inovationen aus dem Smartphonebereich sowieso in den DSLMs landen, wenn sie denn dort Sinn machen.
    Genau, von nix anderem rede ich ja auch, bzw. diskutiere, warum das nicht möglich sein soll. Ich verstehe Cantsin zwar schon, wegen Sensorgröße (ist ja ein großer Sprung von Smartphone-Sensor bis Fullframe) und Stromverbrauch, aber ich gehe davon aus, dass man zukünftig Wege finden wird, das zu bewerkstelligen, vielleicht ist aber auch gar kein Fullframe Sensor mit Smartphone-Technologie vonnöten, vielleicht reicht es ja auch ne Nummer kleiner.

    Und jetzt mal ehrlich, wenn ich mit einem kleine(re)n Sensor Bilder machen kann, die wirklich kompromisslos(!) wie Fullframe aussehen, dann brauche ich auch keinen großen Sensor mehr. Ich hänge mich nicht an Sensorgröße auf, wenn ich die Bilder bekomme, die mich und den Geldgeber glücklich machen, dann ist mir das Backend recht egal.

    Space


    Antwort von dienstag_01:

    Alex hat geschrieben:
    dienstag_01 hat geschrieben:
    Es sollte einem aber auch klar sein, dass die Inovationen aus dem Smartphonebereich sowieso in den DSLMs landen, wenn sie denn dort Sinn machen.
    Genau, von nix anderem rede ich ja auch, bzw. diskutiere, warum das nicht möglich sein soll. Ich verstehe Cantsin zwar schon, wegen Sensorgröße (ist ja ein großer Sprung von Smartphone-Sensor bis Fullframe) und Stromverbrauch, aber ich gehe davon aus, dass man zukünftig Wege finden wird, das zu bewerkstelligen, vielleicht ist aber auch gar kein Fullframe Sensor mit Smartphone-Technologie vonnöten, vielleicht reicht es ja auch ne Nummer kleiner.

    Und jetzt mal ehrlich, wenn ich mit einem kleine(re)n Sensor Bilder machen kann, die wirklich kompromisslos(!) wie Fullframe aussehen, dann brauche ich auch keinen großen Sensor mehr. Ich hänge mich nicht an Sensorgröße auf, wenn ich die Bilder bekomme, die mich und den Geldgeber glücklich machen, dann ist mir das Backend recht egal.
    Ja, das wird wunderbar funktioneren. Auf der Basis, dass alle die gleichen Bilder machen/mögen.

    Space


    Antwort von Alex:

    dienstag_01 hat geschrieben:
    Ja, das wird wunderbar funktioneren. Auf der Basis, dass alle die gleichen Bilder machen/mögen.
    Halt so, wie bei den Smartphones, die ab 2024 Großsensorkameras übertreffen ;-)
    Aber wieso auch nicht, DSLMs voll mit KI, die man ein-/ausschalten kann und die Intensität der Eingriffe justierbar sind. Dann ist doch für alle was dabei.

    Space


    Antwort von dienstag_01:

    Alex hat geschrieben:
    dienstag_01 hat geschrieben:
    Ja, das wird wunderbar funktioneren. Auf der Basis, dass alle die gleichen Bilder machen/mögen.
    Halt so, wie bei den Smartphones, die ab 2024 Großsensorkameras übertreffen ;-)
    Aber wieso auch nicht, DSLMs voll mit KI, die man ein-/ausschalten kann und die Intensität der Eingriffe justierbar sind. Dann ist doch für alle was dabei.
    Nicht ganz. Die Frage, die sich stellt, ist, kann eine DSLM mit großem Sensor und daher eingeschränkten Rechenmöglichkeiten (intern) ab übernächstem Jahr noch mit einer Smartphone Cam, vollgepumpt mit KI mithalten?

    Space



    Space


    Antwort von Frank Glencairn:

    dienstag_01 hat geschrieben:

    Jetzt (2024) kommen wir an den Punkt, dass die gerechneten Bilder - sagen wir ruhig - besser aussehen, als die ungerechneten..

    Der Automatik-Modus mit KI ist besser als der ohne KI.

    Für die rechnende KI ist es wahrscheinlich besser, wenn für ein optimales Ergebnis (National Geographics!) kein Fotograf zwischenrumgemurkst hat, also Blende und Belichtungszeit weg bzw. in die Hand der KI.
    Das halte ich für ne steile These, die bestenfalls auf völlig blutige Laien zutrifft, aber nicht für einen National Geographic Fotografen.

    Ansonsten finde ich es eigentlich erstaunlich, wie viele sich hier nach immer noch mehr Automatiken sehnen, die ihnen sämtliche Verantwortung abnehmen.

    Klingt fast so, als ob viele von Jahr zu Jahr weniger Selbstvertrauen und Gestaltungswillen haben, und deshalb auf irgendwelche Technik hoffen, die ihre Bilde irgendwie rettet.

    Mal ganz ehrlich, seid ihr mit eurer Arbeit so unzufrieden, daß ihr in irgendwelchen Automatiken eure Erlösung sucht, oder fühlt ihr euch den Anforderungen immer weniger gewachsen?

    Wenn ja - warum?

    Je älter ich werde, und je länger ich diesen Job mache, desto besser und sicherer werde ich mit jedem Jahr.
    Ergo habe ich auch mit jedem Jahr weniger Bedarf an sowas - im Gegenteil. Wenn ich mir Sachen ansehe die ich vor 20 Jahren gedreht habe und wie mein Stil seither gereift ist, und wie viel besser, klarer und "erwachsener" meine Bilder heute sind, geht mein Bedarf an irgendwelchen KI-Kameragimmicks eher mehr gegen Null.

    Space


    Antwort von iasi:

    "Frank Glencairn" hat geschrieben:
    dienstag_01 hat geschrieben:

    Ansonsten finde ich es eigentlich erstaunlich, wie viele sich hier nach immer noch mehr Automatiken sehnen, die ihnen sämtliche Verantwortung abnehmen.

    Klingt fast so, als ob viele von Jahr zu Jahr weniger Selbstvertrauen und Gestaltungswillen haben, und deshalb auf irgendwelche Technik hoffen, die ihre Bilde irgendwie rettet.

    Mal ganz ehrlich, seid ihr mit eurer Arbeit so unzufrieden, daß ihr in irgendwelchen Automatiken eure Erlösung sucht, oder fühlt ihr euch den Anforderungen immer weniger gewachsen?

    Wenn ja - warum?
    Wenn die KI den Fokus so nachführt, wie ich es will, ist das doch keine kreative und gestalterische Beschränkung.
    Ob ich dem Fokus-Puller oder der Automatik sage, die Schärfe soll auf den Augen liegen und nachgeführt werden, ändert doch nichts am Ergebnis.
    Ob nun der Grafiker oder Magic-Mask eine Person ausschneidet, ...

    Technik ist, mit was wir arbeiten und gestalten.

    Wenig Selbstvertrauen zeigen doch eher diejenigen, die gewohnte Pfade nicht verlassen und neue Möglichkeiten nicht erkunden.

    Space


    Antwort von Frank Glencairn:

    iasi hat geschrieben:

    Wenn die KI den Fokus so nachführt, wie ich es will...
    Da reden wir drüber, wenn es das mal gibt.
    iasi hat geschrieben:

    Wenig Selbstvertrauen zeigen doch eher diejenigen, die gewohnte Pfade nicht verlassen und neue Möglichkeiten nicht erkunden.
    Gerade wer wenig Selbstvertrauen hat, klammert sich ja an jeden Automatik-Strohalm, aus lauter Angst, er könnte ja die Belichtung oder den Fokus wieder mal komplett versemmeln, und um keine Verantwortung übernehmen zu müssen.

    Space


    Antwort von markusG:

    "Frank Glencairn" hat geschrieben:
    Mal ganz ehrlich, seid ihr mit eurer Arbeit so unzufrieden, daß ihr in irgendwelchen Automatiken eure Erlösung sucht, oder fühlt ihr euch den Anforderungen immer weniger gewachsen?

    Wenn ja - warum?
    Die Frage hattest du dir mal selbst beantwortet - es kommt auf die Arbeit selbst an. Bei dem anderen Thread ging es dir zB um repetive Arbeit wie Rotoskopieren, da kann man dann streiten ob man das als zufriedenstellende Arbeit ansieht oder es ein notwendiges Übel ist.

    Solange es die Arbeit erleichtert sehe ich da keinen Konflikt. Z.B. wenn durch KI mögliches Rauschen sauberer reduziert werden kann, glaub viele drehen ja "am Limit" und heimsen sich Rauschen ein. Oder dass zB Rolling Shutter Artefakte direkt "in Camera" korrigiert werden statt in der Post - sicher für einige Filmer sinnvoll. Gibt da sicher genug Beispiele. Und zB Waveform oder False Color stellen ja auch nichts anderes dar als eine Erleichterung. Kauf dir nicht ab "aus dem Auge" Licht zu setzen, ohne jemals einen Lichtmesser in die Hand zu nehmen.

    Anders sieht es dann bei der aktiven Bildgestaltung aus. Also wie immer - "it depends". Man muss sich ja nicht jeden Schuh anziehen.

    Space


    Antwort von Alex:

    "Frank Glencairn" hat geschrieben:
    iasi hat geschrieben:

    Wenn die KI den Fokus so nachführt, wie ich es will...
    Da reden wir drüber, wenn es das mal gibt.
    Geht schon ganz gut und in vielen Momenten besser als jeder Puller das könnte (z.B. Prota bei Offenblende auf Kamera zugehen). Ich habe auch in einem anderen Thread mit deiner Beteiligung ein paar Beispiele genannt.
    iasi hat geschrieben:
    "Frank Glencairn" hat geschrieben:
    Wenig Selbstvertrauen zeigen doch eher diejenigen, die gewohnte Pfade nicht verlassen und neue Möglichkeiten nicht erkunden.
    Gerade wer wenig Selbstvertrauen hat, klammert sich ja an jeden Automatik-Strohalm, aus lauter Angst, er könnte ja die Belichtung oder den Fokus wieder mal komplett versemmeln, und um keine Verantwortung übernehmen zu müssen.
    Die Verantwortung liegt immer bei mir, ob der (von mir gewählte) Puller es nicht schafft oder die Technik, die ich ausgewählt habe. Bei einem mangelhaften Ergebnis werde ich gefragt, was das Problem war, nicht Sony. Ich habe aber immer öfters die Wahl, will ich mich auf Mensch oder Maschine verlassen. Die Maschine macht das oft nicht optimal, aber bei gewissen Dingen jetzt schon besser als der Mensch.

    Letztlich befasse ich mich jetzt schon mit der Thematik, dass ich auch dann im Thema bin, wenn die Technik weiter fortgeschritten ist, was sie definitiv zunehmend sein wird, ohne jeglichen Zweifel.

    Space


    Antwort von cantsin:

    Nochmal zurück zur Ausgangsfrage:

    Die Prognose, dass Smartphones ab 2024 Großsensorkameras übertreffen, basiert ja auf der Annahme, dass ab 2024 generative KI in die computational photography einzieht - dass es also zur Fusion von Smartphone-Fotografie mit der Technologie von KI-Bildgeneratoren wie Midjourney und Stable Diffusion kommt, wobei die KI-Bildgeneratoren dann die Kamerabilder verbessern bzw. um Details, Texturen, Farbschattierungen, Licht, Bokeh etc. ergänzen, die von den Kamerasensoren und -optiken nicht erfasst wurden.

    Ob generative KI bereits 2024 in Smartphone-Fotografie einzieht (und dann eben einigermaßen nahtlos, in dem Sinne, dass man ein Bild wie gewohnt knipst und dass dann unmerkbar im Hintergrund, während des normalen Prozessierns, mit generativer KI verbessert wird), ist eben die Frage. Sicher braucht es dafür neue Generationen von KI-Berechnungs-Spezialchips wie Googles Tensor-Chips, damit das in überzeugender Qualität und vielleicht sogar in Echtzeit funktioniert.

    Und um noch mal den heutigen Stand der computational photography zu rekapitulieren:
    Bisher geht "nur" das Aufnehmen von Highspeed-Fotoserien mit z.T. unterschiedlichen Belichtungen, die dann KI-basiert zu Bildern mit höherem DR und geringerem Rauschen und z.T. auch höherer Bildschärfe (durch Super Resolution) zusammengerechnet werden.

    Der Schritt, der noch aussteht, ist, dass während der Aufnahme KI-basiert die verschiedenen Objekte auf dem Bild identifiziert werden (Gras als Gras, Haut als Haut etc.) und dann generative KI diese Objekte sozusagen als prompts entgegennimmt und Verbesserungen/Verschönerungen/feinere Details einbaut.

    Ich könnte mir auch vorstellen, dass bei zukünftigen Smartphones erstmal ein Bild wie bisher erscheint, dann im Hintergrund die generative KI-Schönrechnung läuft und nach ca. 1 Minute das Bild durch ein verschöntes Bild ersetzt wird.

    Space


    Antwort von iasi:

    "Frank Glencairn" hat geschrieben:
    iasi hat geschrieben:

    Wenn die KI den Fokus so nachführt, wie ich es will...
    Da reden wir drüber, wenn es das mal gibt.
    Gibt´s doch mittlerweile.
    Man wählt ein Gesicht und der AF bleibt drauf.

    Space


    Antwort von iasi:

    cantsin hat geschrieben:
    Nochmal zurück zur Ausgangsfrage:

    Die Prognose, dass Smartphones ab 2024 Großsensorkameras übertreffen, basiert ja auf der Annahme, dass ab 2024 generative KI in die computational photography einzieht - dass es also zur Fusion von Smartphone-Fotografie mit der Technologie von KI-Bildgeneratoren wie Midjourney und Stable Diffusion kommt, wobei die KI-Bildgeneratoren dann die Kamerabilder verbessern bzw. um Details, Texturen, Farbschattierungen, Licht, Bokeh etc. ergänzen, die von den Kamerasensoren und -optiken nicht erfasst wurden.
    Was die KI-Bildgeneratoren abliefern, ist reines Glücksspiel.
    Gestalten ist anders.

    Space


    Antwort von cantsin:

    iasi hat geschrieben:
    cantsin hat geschrieben:
    Nochmal zurück zur Ausgangsfrage:

    Die Prognose, dass Smartphones ab 2024 Großsensorkameras übertreffen, basiert ja auf der Annahme, dass ab 2024 generative KI in die computational photography einzieht - dass es also zur Fusion von Smartphone-Fotografie mit der Technologie von KI-Bildgeneratoren wie Midjourney und Stable Diffusion kommt, wobei die KI-Bildgeneratoren dann die Kamerabilder verbessern bzw. um Details, Texturen, Farbschattierungen, Licht, Bokeh etc. ergänzen, die von den Kamerasensoren und -optiken nicht erfasst wurden.
    Was die KI-Bildgeneratoren abliefern, ist reines Glücksspiel.
    Gestalten ist anders.
    Nicht mehr, wenn Du die Bildgeneratoren nicht Gesamtbilder generierern lässt, sondern nur Verbesserungen von inhaltlich genau definierten und abgegrenzten Details. Das geht heute schon z.B. mit Stable Diffusion und inpainting, wenn Du z.B. eine unscharfe kleine Rasenfläche in einem Foto markierst und dem Programm sagst, dass es dort Rasen generieren und dabei den bestehenden, markierten Bildteil als Vorlage verwenden soll.

    Space



    Space


    Antwort von Alex:

    Ach ja, das mit Bildgeneratoren ist mir im Moment zu weit gedacht (auch wenn es kommen sollte), jedenfalls in größeren Kameras, bzw. der Nutzen erschließt sich mir wenig. Das macht für mich viel mehr Sinn in der Post als in der (professionellen) Kamera. Die Kamera kann ja gern die Dinge identifizieren und per Metadaten an mein NLE schicken um dann dort kosmetische Änderungen zu machen.

    Wenn ich aber KI habe, die (zuverlässiger als heute) eine Person genau identifizieren kann (auch unter mehreren Menschen), wenn nur Teile von ihr zu sehen sind oder von hinten eben, dann ist das schon ein Gamechanger. Klar kann man heute Gesichter schon registrieren, aber das funktioniert meist nur dann in frontalen Einstellungen und auch nicht immer zuverlässig. Auch Focusbreathing Kompensation lasse ich mir gefallen, so lange sie authentisch wirkt. Kamerastabilisierung durch KI wird immer besser, oder auch die Tatsache, dass durch (KI-)AF quasi jede Linse parfokal wird, oder das immer besser werdende Entrauschen sind Errungenschaften, die ich gern annehme und diese Richtung der KI gefällt mir sehr gut. Und wenn durch KI bald ein Superzoom z.B. ein 16-200 f2.8 mit Stabi bei <=1KG möglich sein sollte, hallo, hier, nehm ich!

    Ich rede einfach von technischen Hürden, die ich gerne einer KI überlasse und mich dadurch mehr auf meine Kernaufgaben, nämlich die Bild-Gestaltung/-Sprache konzentrieren kann. Viele der o.g. Dinge sind jetzt schon ein Gewinn für mich und wenn diese noch effektiver werden und gleichzeitig authentisch bleiben (auch wenn dazu Smartphone-Technologie zum Einsatz kommen muss), soll mir das recht sein.

    Space


    Antwort von Frank Glencairn:

    Alex hat geschrieben:
    Ach ja, das mit Bildgeneratoren ist mir im Moment zu weit gedacht (auch wenn es kommen sollte)
    Gibt doch schon ne Kamera ohne Optik, die ein reiner KI Generator ist.

    Wenn man das zu Ende denkt - warum sich überhaupt noch mit Fokus, Optiken, Schärfe, Belichtung, Blende Licht etc. rumschlagen, wenn ein reiner Generator diese Probleme komplett beseitigt.

    Das Gute ist, man muß nicht mal mehr die Kamera irgendwohin schleppen, geht alles vom Sofa aus.
    Und das lästige schreiben der Prompts und andere technische Hürden nimmt dir die KI natürlich auch ab, damit du dich endlich auf deine eigentlichen Aufgaben konzentrieren kannst.

    Space


    Antwort von Jalue:

    Alex hat geschrieben:
    Ich rede einfach von technischen Hürden, die ich gerne einer KI überlasse und mich dadurch mehr auf meine Kernaufgaben, nämlich die Bild-Gestaltung/-Sprache konzentrieren kann. Viele der o.g. Dinge sind jetzt schon ein Gewinn für mich und wenn diese noch effektiver werden und gleichzeitig authentisch bleiben (auch wenn dazu Smartphone-Technologie zum Einsatz kommen muss), soll mir das recht sein.
    Tja, mit "authentisch" hätten wir da schon mal ein Problem, zumindest im journalistisch-dokumentarischen Bereich, wenn ein KI im Hintergrund mitwerkelt. Kriegen dann Scholz, Habeck + Co in der Tagesschau plötzlich eine göttliche Aureole samt Faltenglättung, weil die KI meint, hier wäre ein bisschen Helmut Newton-Style dem journalistischen Ethos dienlich?

    Und wenn die KI gerade offline ist, was bei der mäßigen Netzabdeckung hierzulande (wir sind hier ja nicht in Afrika!) durchaus vorkommen könnte? Dann filmt & liefert der arglose Nachwuchsreporter die "nackte Wahrheit", so wie's die blöden, defätistischen Boomer früher im manuellen Betrieb gemacht haben. Riskiert er dann eine Abmahnung?

    Fragen über Fragen ...

    Space


    Antwort von cantsin:

    Jalue hat geschrieben:
    Und wenn die KI gerade offline ist, was bei der mäßigen Netzabdeckung hierzulande (wir sind hier ja nicht in Afrika!)
    Die KI kommt ja, bzw. ist schon, lokal in den Smartphone-SoCs. Da setzen sich (siehe Google Tensor) genau wie bei GPUs Spezialchips durch, die für solche Berechnungen optimiert sind.

    Und genau darum geht's letztlich bei der 2024-These - ob die nächste Generation der Smartphone-SOCs in dem Jahr so weit sein wird, um da noch wesentlich mehr (und eingreifendere) machine learning-basierte computational photography zu ermöglichen als bisher.

    Ich zitiere mein Posting am Anfang dieses Threads mit dem Zitat eines Qualcomm-Ingenieurs:
    "Die erste Stufe ist recht einfach: KI wird eingesetzt, um ein bestimmtes Objekt in einem Bild oder einer Szene zu erkennen. In der zweiten Stufe steuert die KI die sogenannten 3A-Funktionen, nämlich Autofokus, automatischen Weißabgleich und automatische Belichtung. Der Qualcomm-Ingenieur geht davon aus, dass sich die Branche derzeit in der dritten Phase der KI-Fotografie befindet, in der die KI eingesetzt wird, um die verschiedenen Segmente oder Elemente der Szene zu erkennen.

    Laut Heape sind wir etwa drei bis fünf Jahre von dem heiligen Gral entfernt, bei dem KI das gesamte Bild verarbeitet:

    'Stellen Sie sich eine Welt aus der Zukunft vor, in der Sie sagen: "Ich möchte, dass das Bild wie diese National Geographic-Szene aussieht", und die KI-Engine sagt: "Okay, ich werde die Farben, die Textur, den Weißabgleich und alles andere so anpassen, dass es wie das Bild aussieht, das Sie mir gerade gezeigt haben"."


    Space


    Antwort von Jalue:

    Danke, das war mir in der Tat nicht ganz klar, also die Idee ist, dass eine KI auf dem Gerät autark werkelt, richtig?

    Fein, aber schon beim Bezug auf ein National-Geographic-Bild bräuchte man eben doch ne Web-Anbindung, es sei denn, man hätte es zufällig im Gerätespeicher.

    Und weiterhin nicht geklärt ist die Frage, wie Authentizität zu definieren wäre. Wenn das Ding lediglich WB, AF, etc. verbessert, hätte wohl kaum jemand Einwände, aber darum scheint es ja gerade nicht primär zu gehen. Vielmehr darum, dass die originäre, fotografische Abbildung lediglich eine Vorlage für ein von der KI virtuell erstelltes Bild ist.

    Bei Urlaubsfotos oder Werbung oder Spielfilm wäre mir das wumpe, doch mit Blick auf dokumentarische Formate stellen sich mir sämtliche Haare zu Berge.

    Space


    Antwort von cantsin:

    Jalue hat geschrieben:
    Danke, das war mir in der Tat nicht ganz klar, also die Idee ist, dass eine KI auf dem Gerät autark werkelt, richtig?
    Richtig, alles direkt in der Hardware... Was der Qualcomm-Ingenieur als "heiligen Gral" voraussagt, ist, dass die eingebaute KI das von Objektiv und Sensor gelieferte Kamerabild praktisch nur als Skizze des End-Bilds verwendet. Und wenn diese KI dann drauf getraint ist, aus diesen Skizzen Kodachrome-Kleinbild-Fotos à la National Geographic oder Bilder mit dem Look einer Sony A7iv mit 50mm-GMaster-Objektiv und Standard-Bildprofil zu erzeugen, wird die das tun.

    Und natürlich ist das dann letztlich Computergrafik und keine Fotografie im herkömmlichen Sinn mehr (auch nicht mehr im Wortsinn der Abbildung von Licht, das in eine Kamera gefallen ist...).

    Ist es aber eigentlich jetzt schon nicht, wie ein MIT-Professor in diesem sehr aufschlussreichen "Wired"-Video erklärt:

    https://youtu.be/nk-26lSbIMk?t=184

    Money quote:

    " If an AI is learning how to color correct a night scene based on what it thinks it should be, are we moving away from photo realism?

    Julian, I think photo realism is dead. We should just bury it, and it's all about hallucination. The photo you get today has almost nothing to do with what the physics of the photo says. It's all based on what these companies are saying the photo should look like."

    Space


    Antwort von Jalue:

    Danke, sehr interessant! Habe jetzt nur durchgescrollt, aber ehrlich gesagt ... ich war (als Journalist) schon ein bisschen entsetzt!

    Meine Schlussfolgerung: Es bedarf neuer Leitplanken. Dazu würde
    m.E. gehören, dass er Einsatz von KI beim Bild-Processing journalistischer Beiträge entweder untersagt wird oder klar gekennzeichnet werden müsste.

    Wo da die Grenze verliefe? Beim AF? Bei der nachträglichen Beleuchtungsänderung oder beim Wegretuschieren von Mitessern?

    Keine Ahnung, sicher scheint: Da sind ziemlich dicke Bretter zu bohren.

    P.S.: In Bezug auf das Videobeispiel; Der eine Diskutant äußert sich positiv zu den Aussichten einer Familie, dank KI das eine, "ikonische Bild" vom Paris-Urlaub zu bekommen. Dieser Mindset erscheint mir ziemlich typisch für Entwickler - und als Teil des Problems.

    Space


    Antwort von Frank Glencairn:

    Jalue hat geschrieben:


    Meine Schlussfolgerung: Es bedarf neuer Leitplanken. Dazu würde
    m.E. gehören, dass er Einsatz von KI beim Bild-Processing journalistischer Beiträge entweder untersagt wird oder klar gekennzeichnet werden müsste.
    Das ist ungefähr das selbe Sinnlosniveau wie die Pflicht "Serviervorschlag" auf Packungen drucken zu müsesen.

    Was hat man davon, daß einem ein besser belichtetes Konzertfoto (zusammengesetzt aus mehreren) vorenthalten, oder gekennzeichnet wird?
    Jalue hat geschrieben:


    P.S.: In Bezug auf das Videobeispiel; Der eine Diskutant äußert sich positiv zu den Aussichten einer Familie, dank KI das eine, "ikonische Bild" vom Paris-Urlaub zu bekommen. Dieser Mindset erscheint mir ziemlich typisch für Entwickler - und als Teil des Problems.
    Ich weiß nicht, eigentlich spricht aus dir ja nur die Angst vor Kontrollverlust.
    Aber wäre das besser belichtet Foto wirklich so schlimm?

    Ich spiel jetzt mal den Advocatus Diaboli:

    Nüchtern und ohne Angst betrachtet könnte man auch zu dem Schluß kommen, daß es der nächste Logische Schritt in der Fotografie ist.

    Endlich ist es möglich statt schlechter Kopien der Wirklichkeit, echte - nennen wir es mal - "Memories" abzubilden. Also die Wirklichkeit so wie sie sich angefühlt hat. Jeder kennt ja die Enttäuschung von dem Foto des Sonnenuntergangs, den man völlig anders in Erinnerung hatte.

    Space


    Antwort von ruessel:

    Andere Sichtweise: Jeder Idiot macht demnächst druckreife Fotos...... entwertet die gesamte Branche zur Beliebigkeit. Ist dann nix mehr Wert.
    .

    Space



    Space


    Antwort von iasi:

    ruessel hat geschrieben:
    Andere Sichtweise: Jeder Idiot macht demnächst druckreife Fotos...... entwertet die gesamte Branche zur Beliebigkeit. Ist dann nix mehr Wert.
    .
    Ganz so, wie die ganzen Fahrassistenten die Rennfahrer arbeitslos gemacht haben? ;)

    Space


    Antwort von SamSuffy:

    "Frank Glencairn" hat geschrieben:
    Ich spiel jetzt mal den Advocatus Diaboli:

    Nüchtern und ohne Angst betrachtet könnte man auch zu dem Schluß kommen, daß es der nächste Logische Schritt in der Fotografie ist.

    Endlich ist es möglich statt schlechter Kopien der Wirklichkeit, echte - nennen wir es mal - "Memories" abzubilden. Also die Wirklichkeit so wie sie sich angefühlt hat. Jeder kennt ja die Enttäuschung von dem Foto des Sonnenuntergangs, den man völlig anders in Erinnerung hatte.
    Seid langem das Beste was ich hier dazu gelesen habe!

    Wir, egal ob Bewegt-oder Standbild, wir sind schon eine recht spezielle Gattung unter uns Menschen. Wir haben da, jeder für sich, ganz spezielle und vorallem eigene Ansichten, was die Bildgestaltung angeht. Das geht schon Richtung Kontrollzwang. Das soll aber auch so sein ;)
    Doch wie sieht dies denn so ein, naja, sagen wir mal, der Otto von der Straße? Beobachtet doch mal diese Leute, beobachtet mal die Teens, also genau die Zielgruppe und zukünftigen Knipser mit Geld in der Hand.
    Keiner von denen will die Bilder wie sie aus einer normalen Kamera kommen würden, aber auch keiner will sich damit beschäftigen selbst einen Look zu generieren.

    Ohne Filter geht da nichts mehr!

    Es zählt nur die Stimmung des Moments, nein, es zählt vielmehr die "wie hätte die Stimmung sein sollen" bzw. der "mach es interessanter als es war" Filter.

    Wie Frank oben schon schrieb, es zählt nur eine schöne Erinnerung zu behalten. Realität ist da nicht gewollt.

    Und jetzt packen wir uns bei der eigenen Nase. Denn auch wir wollen absolut kein Bewegtbild, das der Realität entspricht. Muss ich wohl nicht weiter erleutern;)

    Space


    Antwort von markusG:

    Naja das ist ja Stand jetzt, seit einer ganzen Weile. Egal ob Smartphone oder in-camera-Filter. Sehe höchstens bei letzteren den Zusatz zB Menschen bei Langzeitbelichtungen direkt wegzuretuschieren und solche Dinge. Iirc hatte Sony bei den früheren Systemkameras sogar nen App Store

    Space


    Antwort von Rick SSon:

    SamSuffy hat geschrieben:
    "Frank Glencairn" hat geschrieben:
    Ich spiel jetzt mal den Advocatus Diaboli:

    Nüchtern und ohne Angst betrachtet könnte man auch zu dem Schluß kommen, daß es der nächste Logische Schritt in der Fotografie ist.

    Endlich ist es möglich statt schlechter Kopien der Wirklichkeit, echte - nennen wir es mal - "Memories" abzubilden. Also die Wirklichkeit so wie sie sich angefühlt hat. Jeder kennt ja die Enttäuschung von dem Foto des Sonnenuntergangs, den man völlig anders in Erinnerung hatte.
    Seid langem das Beste was ich hier dazu gelesen habe!

    Wir, egal ob Bewegt-oder Standbild, wir sind schon eine recht spezielle Gattung unter uns Menschen. Wir haben da, jeder für sich, ganz spezielle und vorallem eigene Ansichten, was die Bildgestaltung angeht. Das geht schon Richtung Kontrollzwang. Das soll aber auch so sein ;)
    Doch wie sieht dies denn so ein, naja, sagen wir mal, der Otto von der Straße? Beobachtet doch mal diese Leute, beobachtet mal die Teens, also genau die Zielgruppe und zukünftigen Knipser mit Geld in der Hand.
    Keiner von denen will die Bilder wie sie aus einer normalen Kamera kommen würden, aber auch keiner will sich damit beschäftigen selbst einen Look zu generieren.

    Ohne Filter geht da nichts mehr!

    Es zählt nur die Stimmung des Moments, nein, es zählt vielmehr die "wie hätte die Stimmung sein sollen" bzw. der "mach es interessanter als es war" Filter.

    Wie Frank oben schon schrieb, es zählt nur eine schöne Erinnerung zu behalten. Realität ist da nicht gewollt.

    Und jetzt packen wir uns bei der eigenen Nase. Denn auch wir wollen absolut kein Bewegtbild, das der Realität entspricht. Muss ich wohl nicht weiter erleutern;)
    wenn aber die verschönerung zum standard wird, dann wird das ungeschönte wieder interessant.

    Das is doch am Ende das Problem von Technik und ihrer Entwicklung. Sie hängt immer dem Menschen und seiner dummen „jetzt wo ich das habe will ich doch wieder was anderes“-Psychologie hinterher 😄

    weiss nicht ob ihr euch noch erinnert, aber es gab auch mal eine Zeit, da war es Trend das Logbild praktisch als Ausgabebild zu haben.

    Space


    Antwort von AndySeeon:

    Ja, und heute ist es schick, Krisel in das saubere digitale Bild zu zaubern und Defekte (Super8- Look).

    Space


    Noch was unklar? Dann in unserem Forum nachfragen
    Zum Original-Thread / Zum Videoschnitt Allgemein-Forum

    Antworten zu ähnlichen Fragen //


    Sonys Sensor-Visionen - Smartphones übertreffen DSLMs ab 2024
    Canon legt Quartalszahlen vor - EOS R5/R6 Verkäufe übertreffen Erwartungen
    Schwefel-Prozessoren übertreffen alle CPUs
    Sony IMX989 - diesmal "echter" 1-Zoll Sensor für Smartphones?
    Die Kameras von Sundance 2024: Canon, Arri, Sony und Co...
    Sony, Canon, Panasonic, Nikon, Blackmagic ... Welche Kamera wofür? Stand: Februar 2024
    Camarada App -- macht aus zwei Smartphones eine simple s3D-Kamera
    Apple iPhone 11 Pro erstmals mit Triple-Kamera - und bestem Video aller Smartphones?
    RED halbiert den Preis des Hydrogen One 3D-Smartphones
    Neues Rode VideoMic NTG: Kompaktes Hybrid-Mikro für DSLMs, Smartphones, Tonangel, USB uvm.
    8Kp30, 4Kp120 und 720p960 - Qualcomm verrät Features der Top-Smartphones 2020
    1.55x Anamorphic Aufsatzlinse für Smartphones
    Beastgrip kündigt 1.55x anamorphotische Optik für Smartphones an
    Quibi: Neue Streaming Plattform mit vertikalem Filmmodus speziell für Smartphones
    Gudsen Moza Mini-P: kompakter Gimbal für Smartphones, Actioncams und spiegellose Kameras
    ProGrip erweitert Smartphones um Kamera-Griff
    Anamorphe Objektive für Smartphones
    Neues Richtrohrmikrofon für Smartphones und DSLMs - Sennheiser MKE 400




    slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
    RSS Suche YouTube Facebook Twitter slashCAM-Slash