Artikel von Daniel Zellfelder - aktualisiert am 9. Juni 2011 - veröffentlicht am 25. Juni 2006

Bildsensor – Der Film einer Digitalkamera

Autor: Daniel Zellfelder

Der Bildsensor ist einer der wichtigsten Bestandteile einer Digitalkamera. Er ist in Kombination mit der Speicherkarte der Film der Digitalkamera. Mit ihm werden die Bildinformationen aus dem Objektiv in ein digitales Bild umgewandelt.

Der Bildsensor selbst besteht aus einzelnen Fotozellen, auch Pixel genannt, welche Helligkeitswerte aufnehmen. Die Anzahl der Pixel lässt sich  durch Multiplikation der maximalen Bildhöhe (in Pixel) mit der maximalen Bildbreite (in Pixel) errechnen.

Eine schöne Übersicht der gängigen Auflösungen von Digitalkameras finden Sie auf Wikipedia. Passend zur Auflösung finden Sie dort auch das jeweilige Seitenverhältnis und diverse rechnerische Druckgrößen.

Unterschiedliche Sensortypen

Es gibt zwar zwei unterschiedliche Sensoren, den Flächensensor und den Zeilensensor, für normale Digitalkameras ist allerdings nur der Flächensensor relevant. In der Praxis existieren weiterhin zwei unterschiedliche marktgängige Flächensensoren. Der am weitesten verbreitete CCD-Sensor (z.B. verwendet bei Canon, Nikon, Panasonic, Olympus) bzw. Super-CCD-Sensor (Fujifilm) und der CMOS-Sensor.

Wie entsteht ein Bild auf dem Sensor?

Ein Bild entsteht bei einem Flächensensor indem dieser nun die unterschiedlichen Helligkeiten aufnimmt, die durch das Objektiv auf ihn auftreffen. Er sammelt im Grunde also das durch das Objektiv gebündelte Licht ein.

Diese Informationen verarbeitet er nun auf eine von zwei möglichen Arten zu einem Farbbild. Beide basieren auf dem RGB-Modell (Rot, Grün, Blau).

In den meisten Fällen geschieht das mit der so genannten One-Shot-Methode. Sie wird in nahezu allen Kameras verwendet. Bei dieser Methode hat ist jedeFotozelle bzw. jedes Pixel für eine der drei Grundfarben des RGB-Modells zuständig. Eine einzelne Fotozelle registriert entweder rote, grüne oder blaue Helligkeitsinformationen. Durch Verrechnung mit den umliegenden Fotozellen wird dann die genaue Farbe berechnet.

Anordnung der Fotozellen bei der One-Shot-Methode

Anordnung der Fotozellen bei der One-Shot-Methode

Die zweite Möglichkeit ist die Three-Shot-Methode.  Wie der Name erahnen lässt, werden hier drei Belichtungen hintereinander gemacht. Sie eignet sich daher nur für unbewegte Motive. Bei jeder Belichtung wird eine der drei Farbinformationen verarbeitet. Am Ende setzt der Sensor die Informationen der drei Belichtungen zu einem Bild zusammen.

In der Praxis finden Sie die Three-Shot-Methode allerdings nur bei sehr wenigen professionell genutzten digitalen Kamerarückteilen. In Amateurkameras werden ausschließlich Sensoren eingebaut, die auf der One-Shot-Methode basieren. Selbst im Profibereich sind Sensoren, die mit der Three-Shot-Methode arbeiten eine Ausnahme.

Weiterverarbeitung

Nachdem das Bild mit Hilfe des Sensors aufgenommen wurde, wird es von der Kamerasoftware noch weiterverarbeitet. So legt diese z.B. den Weißabgleich fest, korrigiert die Sättigung und ähnliches. Je nach Firmware laufend hier eine Menge an Optimierungsprozessen ab. Ein Bild direkt aus der Kamera ist also in gewisser Weise meist schon bearbeitet.

Selbst RAW-Aufnahmen werden ja bereits mit Einstellungen von der Kamera angelegt. Diese kann man dann aber noch im Nachhinein anpassen.

  1. Bildquelle (Hintergrund Artikelbild oben): fotolia.com – Kevin Jarratt

 

Autor des Artikels: Daniel Zellfelder

Hallo zusammen! Ich bin Jahrgang 1990 und mich fesseln Fotografie, grafische Arbeiten sowie das Erstellen von Webseiten. Neben der Natur fotografiere ich Menschen und Veranstaltungen. Derzeit probiere ich mich an der Konzeptfotografie. Um andere an meinen Erfahrungen teilhaben zu lassen, habe ich 2006 dieses Onlinemagazin ins Leben gerufen.

Webseite von Daniel Zellfelder | Bei Twitter zu finden als fotoartist
Haben Sie diese Artikel bereits gelesen?

Die Kommentarfunktion wurde für diesen Artikel deaktiviert.