Hallo,
Ich habe mir in den Kopf gesetzt, zu versuchen "Ambilight" ganz einfach nachzubauen...einfach nur das Video in der Bildschirmmitte, und neber dem Video je links und rechts ne Picturebox, die die passende Farbe annimmt. Hätte gedacht ich nehme einfach einige Pixel am Rand und errechne daraus die Durchschnitts-Farbe (geht sowas überhaupt ?), die die Picturebox dann annehmen soll (Für den Anfang geht auch ein einzelner Pixel, soll sich aber später schon nach mehreren Pixeln richten). Später kann man das evtl. noch via Microcontroller und LED's nützlich verwenden. Soweit die Idee. Kann man sowas überhaupt realisieren ? Ich müsste ja jedes Einzelbild des Videos analysieren...Gibt es überhaupt eine Möglichkeit die Farbe eines bestimmten Pixels / durchschnitt mehrerer Pixel bei jedem Einzelbild zu erkennen und dann die Picturebox anzupassen ? Dann müsste die Picturebox ja auch 24 bzw. 30 mal pro Sekunde ihre Farbe ändern können...Hat jemand eine Idee ?
Ich habe mir in den Kopf gesetzt, zu versuchen "Ambilight" ganz einfach nachzubauen...einfach nur das Video in der Bildschirmmitte, und neber dem Video je links und rechts ne Picturebox, die die passende Farbe annimmt. Hätte gedacht ich nehme einfach einige Pixel am Rand und errechne daraus die Durchschnitts-Farbe (geht sowas überhaupt ?), die die Picturebox dann annehmen soll (Für den Anfang geht auch ein einzelner Pixel, soll sich aber später schon nach mehreren Pixeln richten). Später kann man das evtl. noch via Microcontroller und LED's nützlich verwenden. Soweit die Idee. Kann man sowas überhaupt realisieren ? Ich müsste ja jedes Einzelbild des Videos analysieren...Gibt es überhaupt eine Möglichkeit die Farbe eines bestimmten Pixels / durchschnitt mehrerer Pixel bei jedem Einzelbild zu erkennen und dann die Picturebox anzupassen ? Dann müsste die Picturebox ja auch 24 bzw. 30 mal pro Sekunde ihre Farbe ändern können...Hat jemand eine Idee ?