Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsAMD Ryzen Threadripper 3000: 3990X stellt Rekorde in etlichen Benchmarks auf
So tief gehend meinte ich das auch gar nicht. Was ich meinte ist, dass die meisten Vorgänge am PC auf die ich als User wirklich warten muss, typischerweise Probleme sind die gut zerlegbar sind.
Ganz genau, darauf hatte ich ja auch gleich zu Beginn schon Bezug genommen. Das ist auch völlig richtig, nur dürfen wir in der Hinsicht heute keine Verbesserung mehr erwarten, weil genau das heute so ziemlich jeder Programmierer schon tut. Das ist halt trivial und findet auf einer so abstrakten Ebene statt, dass dazu quasi keinerlei Spezialwissen notwendig ist.
Früher war das mal so, die Entwicklung auf GPUs ist um ein Vielfaches höher als bei den CPUs. Von Jahr zu Jahr wurde das drastisch verbessert. Programme wie Davinci machen exzessiven Gebrauch der GPU. Es gibt eigentlich keine Gründe mehr die Aufgaben der CPU zu überlassen, am allerwenigsten im privaten Umfeld. Streaming deckt das mit ab. Wobei die Vorteile auf dem Level nur mit Nvidia Karten ausgespielt werden können.
Habt Ihr eigentlich mehr zu den CPU Revisions/Steppings? Sind alle TR SSP-B0 und alle Ryzen MTS-B0 und was ist der Unterschied? Ist das anderes Silizium?
Es ging mir eigentlich nur darum das Intel immer nur der hohe Takt nachgesagt wird. AMD geht dabei den Weg über den Cache, deshalb ist es eine einseitige Betrachtung den Cache zu ignorieren, vor allem eben da man durch den 3500 Rückschlüsse auf den Impact ziehen kann. Ein Vergleich wäre also ein 3500 vs 9600k bei gleichem Takt. Und dann sehe ich da eher keinen IPC Vorteil bei AMD.
Du vergleichst da einfach Äpfel mit Birnen.
Single Core Leistung ist Takt * IPC. Und woher die IPC kommt ist völlig nebensächlich, sei es durch extra großen Cache, bessere Architektur, oder sonst irgendwas. Und vom 3500 als sonderling mal abgesehen ist die IPC von Core und Zen in den aktuellen Iterationen in etwa gleich auf. Nur der Takt ist bei Intel nochmal ein paar hundert MHz höher, was dann eben in den bekannten +/- 5% mehr SC Lesitung resultiert
Das muss er nicht unbedingt sein. Bei LN2 Kühlung sprechen wir von Temperaturen auf dem DIE zwischen -196C bis -50C. Da entwickelt das Silizium sich hin zu einem Supraleiter. Dadurch kann man die Spannung solide absenken, um die Vorwärtsspannung der Transistoren zu erreichenw. Dadurch sinkt die Elektrische Leistung massiv ab. Zusätzlich dazu verringern sich die Leckströme
Alles im Allen die Effizienz der Maschine wird unfassbar gut. Deswegen schießen die Verbräuche nicht in unfassbaren Höhen. Ne Handelsübliche Steckdose ist nicht ist für 16A bei 230V ausgelegt, 3,7KW. Da kommt diese CPU unter den Umständen nicht dran.
Hier muss ich kurz einhaken. Silizium ist unter normalem Druck kein supraleiter. Erst bei 8,5 K (-264,65 °C) und 12 GPa Druck ist es ein supraleiter der Kategorie eins (also ein Element mit Sprungtemperatur, wenn auch nur unter bestimmten Bedingungen.)
Da noch mehr Elemente wie Germanium unmittelbar an der Stromleitung beteiligt sind fallen da noch andere Sachen mit rein. Tatsächlich ist aufgrund der verringerten ladungsträgerzahl und Beweglichkeit der Widerstand sogar höher, spielt aber keine Rolle da pro schaltung die stromdichten recht klein sind.
Wichtig bei einer LN2 kühlung ist nur die thermische Zerstörung des Bauteils hinauszuzögern, indem man ihm so viel Wärme entzieht wie es aussendet, eben weil viel mehr Energie rein gepumpt wird als unter normalen kühlungen gesund wäre. Und ein flüssiges Gas ist perfekt für sowas, da die Temperaturunterschiede riesig sind.
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Danke. Immerhin eine Seite die berichtet. Bin trotzdem forsichtig. Die plus 100 - 200 MHz im Serverberreich! Also vom Takt her kommt nicht wirklich ein Plus. Ich hatte die Hoffnung das die 7nmplus wieder ein paar mm2 bringt und AMD den Platz nutzt.
OK wenn sie es diesmal allein aus der Architektur holen... Autsch... P. S. Ich gönne es ihnen.
@Buggi85
Diesbzüglich war ich ziemlich überrascht nach dem Einbau einer 2070S. Die Renderzeiten beim Videoschnitt sinken schon deutlich (wenn das Programm die GPU entsprechend nutzt). Auch kann ich keinen Qualitätsunterschied zwischen CPU/GPU encodierten Videos im Endergebniss erkennen. Die Regel das GPU encodierte Videos schlechter sind als CPU bearbeitete gilt nicht mehr. So betrachtet hätte für mich ein 3700x sicher gereicht, der 3950x bringt hier keine Vorteile mehr.
Diesbzüglich war ich ziemlich überrascht nach dem Einbau einer 2070S. Die Renderzeiten beim Videoschnitt sinken schon deutlich (wenn das Programm die GPU entsprechend nutzt). Auch kann ich keinen Qualitätsunterschied zwischen CPU/GPU encodierten Videos im Endergebniss erkennen. Die Regel das GPU encodierte Videos schlechter sind als CPU bearbeitete gilt nicht mehr.
Der Encoder der Turing-Karten (ab 1660 aufwärts) bietet eine Qualität, die etwas besser als x264 auf "Fast" ist (liegt aber noch ne ganze Ecke unter x264 medium).
Deshalb macht es mittlerweile in den seltensten Fällen Sinn, noch per CPU zu encoden.
Denn x264 medium lastet deutlich mehr von einer CPU aus als NVENC von der GPU. NVENC ist somit i.d.R. schneller und braucht dabei weniger Strom.
@Buggi85
Diesbzüglich war ich ziemlich überrascht nach dem Einbau einer 2070S. Die Renderzeiten beim Videoschnitt sinken schon deutlich (wenn das Programm die GPU entsprechend nutzt). Auch kann ich keinen Qualitätsunterschied zwischen CPU/GPU encodierten Videos im Endergebniss erkennen. Die Regel das GPU encodierte Videos schlechter sind als CPU bearbeitete gilt nicht mehr. So betrachtet hätte für mich ein 3700x sicher gereicht, der 3950x bringt hier keine Vorteile mehr.
Der Encoder der Turing-Karten (ab 1660 aufwärts) bietet eine Qualität, die etwas besser als x264 auf "Fast" ist (liegt aber noch ne ganze Ecke unter x264 medium).
Deshalb macht es mittlerweile in den seltensten Fällen Sinn, noch per CPU zu encoden.
Denn x264 medium lastet deutlich mehr von einer CPU aus als NVENC von der GPU. NVENC ist somit i.d.R. schneller und braucht dabei weniger Strom.
Ja, mittlerweile ist das was sehr feines geworden was Nvidia da ihren Karten mit gibt. Ich find's nur schade daß sich keines der Tech Magazine und Seiten damit befasst und die Möglichkeiten mit Blick auf die aktuelle CPU Lage berücksichtigt. Ich meine es sind viele Leute die sich high Core CPUs anschaffen um eben diese Workloads abzuarbeiten, aber kaum jemand weiß wozu seine GPU eigentlich in der Lage wäre. Zumal auch viele 2070 und 2080 Karten erworben werden und dann schlummert da ungenutztes Potential. Manchmal entsteht der Eindruck es wird bewusst ignoriert um neue CPUs mit mehr Kernen zu pushen.
@Buggi85 ja, weil gpu encoding bei hohen Auflösungen immernoch Grütze ist ^^ Mag sein dass Fortschritte gemacht wurden aber CPUs haben da ganz andere Möglichkeiten.
Ergänzung ()
Also ich will nicht sagen, dass alles schlecht ist, keines falls, für einfache Sachen und wenn es nicht auf Qualität ankommt kann man das schon nehmen. Will man aber Kompromisslose Qualität in allen belangen kommt man um die CPU nicht herum. Ist heim Streamen ja auch so. NVENC ist gut, aber trotzdem hast überall noch Fragmente, besonders bei kleinen unterschieden in Farbe und Helligkeit. Und das stört schon gewaltig wenn man BD XL ready Material aufbereitet
"Grütze" ist es nur, wenn man eine zu niedrige Bitrate einstellt.
Gibt aber für die meisten Anwendungen heutzutage wenig Gründe, da zu knausern.
Beim Live-Streaming kann man mit CPU natürlich das Maximum rausholen.
Lohnt sich aber erst ab 3900X oder extra Streaming-PC. Und ist nach wie vor deutlich ineffizienter (bezogen auf den Stromverbrauch).
Streams mit 6000kbps und dem aktuellen NVENC sehen bei 1080p60fps außerdem in den meisten Spielen sehr gut aus. Und bei "Just Chatting" mal sowieso.
Selbst ein Overwatch oder Fortnite geht damit sehr gut (wegen dem Comic-Stil).
Hässlich wird's erst, wenn irgendwo viele Büsche sind (und man sich entsprechend schnell bewegt). Das ist für niedrige Bitraten bei jedem Encoder eine Herausforderung.
Also 4k ist problemlos möglich, ganz ohne Grütze. Ich hatte das ja selbst mit einer Sample Szene transkodiert nach h265. Wie schon genannt ist die Bitrate der Faktor für die Qualität, aber das ist ebenso ein Parameter für CPU basiertes Encoding. 4k 60 FPS unter very slow Preset mit NVenc steht schon für beste Qualität und dabei 88 FPS im Encoding zu erreichen ist schon ernsthaft pervers. Und ich rede nur von meiner Pascal Karte, die ja noch einen zweiten Encode mit gleicher Leistung parallel fahren kann. Also ich zolle Nvidia für die geschenkte Leistung in ihren Karten definitiv Respekt. Und deshalb finde ich gehört das auch mal in einem Artikel beleuchtet, weil das leider noch immer weit verbreiteter Glaube ist mit der Grütze.
NVENC ist Qualitätsmäßig immer noch kein Konkurrent für den Streaming-Bereich. Sobald ein schnelles Spiel gespielt wird, sieht es einfach nicht mehr gut aus.
Daher finde ich den Kommentar von @Buggi85 auch extrem befremdlich, dass die Tech-Magazine nur Kerne pushen würden. Dazu gibt es genügend Tests, die genau das beleuchten. Für den 0815 Streamer mag da NVENC reichen, wenn er keinen hohen Wert auf Qualität legt, für die meisten allerdings gibt es nichts besseres, als einen 3900x und x264 auf slow.
Denn es gibt da deutlich mehr zu beachten noch, z. B. maximale Bitrate die verschiedene Seiten erlauben etc. pp.
NVENC ist Qualitätsmäßig immer noch kein Konkurrent für den Streaming-Bereich. Sobald ein schnelles Spiel gespielt wird, sieht es einfach nicht mehr gut aus.
Das stimmt wie gesagt so allgemein nicht.
Bei vielen Spielen (und Just Chatting) ist das Bild absolut top.
Davon mal abgesehen streamen die wenigsten mit x264 auf medium oder langsamer.
Die allermeisten streamen mit älterem NVENC, Quicksync, x264 Fast oder vielleicht noch VCE.
Das neue NVENC schlägt all diese Encoder.
Streamer mit extra PC oder Top-End Ryzen Prozessoren gibt es nur ganz wenige.
Hier muss ich kurz einhaken. Silizium ist unter normalem Druck kein supraleiter. Erst bei 8,5 K (-264,65 °C) und 12 GPa Druck ist es ein supraleiter der Kategorie eins (also ein Element mit Sprungtemperatur, wenn auch nur unter bestimmten Bedingungen.)
Ich habe auch nicht behauptet, dass es ein Supraleiter wird sondern nur einem ähnlich wird. Der spezifische Widerstand wird sehr gesenkt, ist zwar nicht wie ein Supraleiter „0 Ohm, aber hat eben auch nicht den Gleichen Widerstand wie bei den „arbeitstemperaturen“.
Ich habe auch nicht behauptet, dass es ein Supraleiter wird sondern nur einem ähnlich wird. Der spezifische Widerstand wird sehr gesenkt, ist zwar nicht wie ein Supraleiter „0 Ohm, aber hat eben auch nicht den Gleichen Widerstand wie bei den „arbeitstemperaturen“.
Genau um diese geht es aber. Der 0815 Streamer kann gerne NVENC nutzen, dafür ist es da, denn es ist einfach zu nutzen, aber halt Qualitätsmäßig immer noch nicht ebenbürtig.
Hier wird aber so getan, als seien die der wichtigste Faktor. Nein es sind die Streamer, die 500+ Zuschauer haben, die wollen nunmal das meiste aus dem Stream rausholen und setzen daher nach wie vor auf die CPU. Immer mehr der großen Streamer haben mittlerweile einen 3900x als Streaming-Rechner unterm Tisch. Gute kostenlose Werbung für AMD.
Mir ging es auch eher darum, dass dieses befremdliche Argument kam, dass Tech-Seiten den Corecount pushen wollen, statt GPU Encoding. Grade dort im professionellen Bereich, gehen die wenigsten auf die GPU, da auch dort qualitativ schlechter. Man holt das maximale raus und da interessiert es dann auch nicht ob eine 500 € GPU schneller ist, wenn eine 4000 € CPU das noch besser hinkriegt.
Genau um diese geht es aber. Der 0815 Streamer kann gerne NVENC nutzen, dafür ist es da, denn es ist einfach zu nutzen, aber halt Qualitätsmäßig immer noch nicht ebenbürtig.
Ebenbürtig und besser, wie ich ja ausführlich erklärt habe.
Aber ich bin mir sicher, hier im Thread lesen unheimlich viele Streamer mit 500+ Zuschauern mit.
Spaß beiseite ... ich denke, der Kommentar bezog sich eher auf Offline-Encoding.
Das ist noch mal deutlich weiter verbreitet als Streaming. Und da liest man auch heute noch ständig davon, wie viel schneller eine CPU als eine andere encodet, wobei es für die wenigsten Menschen sinnvoll ist, überhaupt auf der CPU zu encoden.
Gerade bei 4K60fps. Denn das dauert ewig, die Lüfter der CPU laufen dabei hoch, und alles, was man noch nebenher am PC macht, fühlt sich an wie im Jahre 1995 (übertrieben gesprochen).
Encodet man hingegen per NVENC, merkt man davon meist nicht mal was. Will man auf die selbe Qualität kommen, ist das File am Ende eben ein bisschen größer ... who cares?
Gerade bei 4K60fps. Denn das dauert ewig, die Lüfter der CPU laufen dabei hoch, und alles, was man noch nebenher am PC macht, fühlt sich an wie im Jahre 1995 (übertrieben gesprochen).