@dh_awake dh_awake schrieb:Ja, weil dem Zuseher das Bild "gestochener" vorkommt.
In der Videoforensik ist aber die enhance and stabilize-Methode im Sinne von besserer Qualität eher nicht anzuraten. Du bekommst zwar durch das Übereinanderlegen von zwei Frames die Infos aus beiden Frames, verlierst aber dadurch logischerweise unter Umnständen wertvolle Details eines einzelnen Frames.
Das ist jetzt eine komplette Themaverfehlung...
Nein, das Bild ist KONKRET besser:
1. hat es höhere Auflösung,
2. hat es weniger Verluste erlitten.
Ich spreche hier nicht von nachträglichen "Verschönerungen", sondern davon, dass Sendebild und Aufzeichung ein und dieselbe Grundlage haben, nämlich die Bildinformation, die durch das Objektiv der Kamera auf einem Sensor gelandet ist. Einmal zeichnet die Kamera die Information auf (MPEG-2, 1280x720 Pixel), nebenbei wird das Bild (bei einer LIVE-Kamera) via Funk dem Sender zugespielt (1. Fehlerquelle), dann dort auf Senderbedingungen konvertiert (2. Fehlerquelle) und schließlich beim Sender (inklusive Layer wie Logos etc.) aufgezeichnet (3. Fehlerquelle). Was du letzten Endes hier gepostet hattest, wurde dann noch fürs Internet aufbereitet (4. Fehlerquelle).
Außerdem ist der Qualitätsunterschied schon an den Details erkennbar; keine Videoaufbereitung kann fehlende Details hinzufügen.