Du kannst dir das auch einfach Rückwärts vorstellen, dann erschließt sich das auch sehr schnell und logisch:
(Achtung grobes Denkbeispiel! Erhebe keinen Anspruch auf 100%-ige Korrektheit)
Geh davon aus, du hast ein unkomprimiertes FullHD Video mit 60 Bildern pro Sekunde von 1 Minute Länge:
-> 1920*1080(Auflösung)*60(fps)*60(Sekunden) = 7.464.960.000 Pixelinformationen pro Minute.
Gehen wir hier von True Color für jeden Pixel aus im RGB Farbraum, dann haben wir für die 3 Grundfarben jeweils 8Bit Farbtife, also 3*8 = 24 bit pro Pixel
--> 7.464.960.000 * 24(bit) = 179.159.040.000 bit pro Minute
---> 179.159.040.000 / 8 = 22.394.880.000 byte pro Minute
----> ca. 22,4 Gigabyte pro Minute.
An der Rechnung siehst du ganz schnell, an welchen Faktoren du reduzieren kannst, noch vor der Komprimierung: Auflösung, Bilder pro Sekunde, Dauer und Farbtiefe wirken sich linear auf den Speicherplatzverbrauch aus. Hier ist direkt zu sehen: Ändert man bei gleichbleibenden Seitenverhältnis (16:9) die Auflösung auf einen niedrigeren Wert, z.B. HD ready, also 1280*720, so ändern sich direkt 2 Faktoren in der Rechnung massiv.
-----> 1280*720*60*60*24/8 = 9.953.280.000 byte pro Minute
------> also ca. 10 Gigabyte pro Minute.
Das gleiche gilt analog auch für den Ton: Sagen wir du hast 60 Sekunden Ton in CD-Qualität, das heißt eine Abtastrate von 44.100 Hz und einer Genauigkeit von 16Bit, das ganze in Stereo (2 Kanäle). Also hast du pro Minute:
-> 44.100(Abtastrate) * 16(bit) * 2(Kanäle) * 60(Sekunden) = 84.672.000 bit
--> 84.672.000 / 8 = 10.584.000 byte
---> ca. 10,6 Megabyte pro Minute.
Das kommt dann bei dem Video noch dazu.
Hier wirken sich eben linear die Abtastrate, die Anzahl Kanäle, die Dauer und die Genauigkeit pro Abtastung direkt auf den verbrauchten Platz aus. Ebenfalls vor der Komprimierung.
In beiden Fällen setzen Komrpessionsverfahren verschiedener Audio- und Videocodecs jetzt erst an. Diese sind für gewöhnlich verlustbehaftet, das heißt es wird dadurch Speicherplatz reduziert, dass Informationen verloren gehen. Die Algorithmen lassen z.B. unhörbare Tonrequenzen außen vor oder speichern Bildinformationen für ähnliche aufeinanderfolgende Bilder nicht erneut usw oder rechnen das Bild in einen geringerwertigeren Farbraum runter etc.. Also ganz grob gesprochen.
Je höher bei den jeweiligen Verfahren die eingesetzte Bitrate ist, desto mehr bleibt sozusagen erhalten. Erhaltenes verbraucht aber weiterhin Platz. An dieser Stelle ist der Punkt erreicht, wo man für sich das beste Verhältnis aus Platzverbrauch und Qualität finden muss.
Desweiteren kann man sich auch noch merken: Je besser die Qualität eines Codecs bei gleichzeitig sinkendem Speicherplatzverbrauch ist, desto mehr Rechenpower wird verlangt.
Denn: Was nicht gespeichert wird, muss ggf., sofern es nicht eh entfernt wird (z.B. unhörbare Frequenzen), von der CPU zum jeweiligen Zeitpunkt berechnet werden. Es werden also gespeicherte Daten in eine Berechnungsvorschrift umgewandelt vom Codec, um diese Daten zum jeweiligen Zeitpunkt in Echtzeit zu generieren. Was bereits da ist, muss natürlich nicht neu berechnet werden, verbraucht aber weiterhin Platz.
Codecs arbeiten also für gewöhnlich mit einer Mischung aus Reduzierung von vorhandenen Daten und Echtzeitberechnung von Teilen des Originals.