Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsBenchmark-Vergleich: Ryzen 9 7950X in Sandra-Suite 74 Prozent schneller als Zen 3
Ja nu. DEN Spruch höre ich jetzt auch schon seit gefühlt Jahrzenten. Und mindestens seit echten 10.
Und ich würde behaupten, der stimmte schon damals.
Und würden die Hersteller ihre SW nicht immer weiter aufblasen, würde auch heute noch locker ein 4Kerner für „normale“ Leistung reichen.
Willst du etwa sagen, die Speerspitze mit 4C/8T, die Intel uns wahrscheinlich 2022 immer noch andrehen würde, hätte es Ryzen nicht gegeben, ist nicht ausreichend?
Intel hat ja den Takt im AVX-512 Betrieb nicht im Griff gehabt, daher ist das bei Intel ein zweischneidiges Pferd, wenn AMD jetzt eine vernünftige Implementierung abliefert wird AVX-512 attraktiver.
Jetzt mache ich mich bestimmt unbeliebt, aber ist es in Zeiten von Klimakrise und hohen Energiekosten wirklich nötig, dass man bei Hardware immer wieder die Performance im Crypto Bereich testet?
Da scheint ein Missverständnis vorzuliegen, die Crypto-Benchmarks messen die Performance die du z.B. brauchst um Webseiten per https aufrufen zu können. Mit Cryptowährungen haben diese Benchmarks nichts zu tun.
Gibt es die Vergleich auch bitte mal mit 1950X, 2950X, 3950X, 5950X und dem 7950X?
Besonders wenn ale mal mit AllCore 3,1GHz, 4,1GHz laufen.
Bei der tatsächlichen Leistungsaufnahme des gesamten Systems.
Wie hoch wären die Unterschiede in der Leistung und Energieaufnahme dann?
Rein rechnerisch müßte ein 7950X bei AllCore 4,1GHz. ca. 50% schneller sein als ein 3950X in den Test und damit den Anwendungen. Die frage ist aber, zu welcher Leistungsaufnahme des gesamten Systems?
Ja und nein. Die meiste Software wird ja durchaus mächtiger, es kommen immer mehr (sinnvolle) Features hinzu, die vor einigen Jahren wegen fehlender Leistung einfach nicht möglich oder zumindest nicht sinnvoll waren.
Was allerdings zu kurz kommt ist die Optimierung der Software. Aufgrund der immer stärker werdenden Hardware ist es für viele Firmen nicht rentabel, viel Geld in die Optimierung zu stecken, weshalb vieles einfach unnötig ressourcenhungrig geworden ist. Da sollte man in Zukunft mal ansetzen. Adobe-Produkte sind hier das beste Beispiel für eine katastrophale Optimierung.
hier noch jemand mit einem 5600x? bin gespannt wie lange der schnell genug sein wird. habe erst kürzlich von einem 4690k geupgraded, und das war ne echte erleichterung, würde die schnell genug sein für ie 4000er grakas?
Für das Optimum hängt es zum einen von der Auflösung ab und von den Settings.
Der 5600x sollte kein Problem darstellen. Bei den wesentlich älteren Prozessoren sieht das schon etwas anders aus.
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
zocke in ultrawide 3440x1440 oder auch an meinem oled mit 4k. derzeit tut aber meine 6600xt noch gute dienste und schlägt siich ohne RT überaschend gut
Wie für jeden von denjenigen, die die Frage täglich stellen, hier die Lösung zwecks eigener Anwendung: Was limitiert hier eigentlich?
Ryzen 9 7950x:
Sehr beeindruckend und voraussichtlich ein gelungener Start in eine hoffentlich erneut langlebige Plattform. Preis und Verbrauch sollten aber in halbwegs gemäßigtem Rahmen stattfinden. Zumindest den Verbrauch wird man sicherlich wieder im BIOS regeln dürfen.
Jetzt mache ich mich bestimmt unbeliebt, aber ist es in Zeiten von Klimakrise und hohen Energiekosten wirklich nötig, dass man bei Hardware immer wieder die Performance im Crypto Bereich testet?
Gerade aus Energieeffizienz-Gründen macht es Sinn, häufig genutzte Krypto-Algorithmen in Hardware zu implementieren. Ähnliches Prinzip wie bei Videocodecs, wird heutzutage nur viel häufiger genutzt.
Was ich, abgesehen von den ganzen Balken, viel interessanter/beeindruckender finde,
wie gut AMD die Leaks zur Leistung von Zen4 im Griff hat.
Da wars bis vor einiger Zeit relativ ruhig, während bei Intel gefühlt seit Jahresbegin jede Woche irgendwas über Raptor Lake durchs Netz geisterte.
Bei CPUs sieht es ja alles gut aus mit dem Wettbewerb und auch für uns Kunden. Die Platinenpreise in der Mittelklasse wird man halt leider noch abwarten müssen.
Bei Grafikkarten ist das Duel sicher auch spannend, aber preislich für die allermeisten halt sehr uninteressant.
Jo. Aber ich glaube kaum, dass ich mir ne 40x0 anschaffen werde.
Für solche Preise stelle ich mir normalerweise ganze PCs zusammen.
… und habe eben erst eine 6800 erstanden, die jetzt meine V56 ablösen wird.
Was hat Lisa Su gemeint ? Ab 125 US$ ?
Wenn dann noch den schwachen €uro rechnest und die Märchensteuer, dann gruselt mich schon dass die billigsten 150€+ kosten werden.
Heftig, wenn ich bedenke dass mein B550 Tomahawk im Januar 2021 149€ kostete, und das ist jetzt kein Ramschboard.
Noch nicht solange her, da war es in einer gewissen Käuferschicht das totale Must-have (so ähnlich wie PCIe5, DDR5), und ein Ausschlusskriterium für AMD.
Wie schnell sich doch die Zeiten ändern.
Das ist tatsächlich im Grunde die wichtigste Info, denn nur darum geht es.
Was sich dort verbessert ist der "Fortschritt", sofern es im Rahmen liegt.
Es gibt schliesslich nicht unbegrenzt Ressourcen auf der Welt.
Sry, aber die sollten einfach mal mehr "Hirnschmalz" engagieren.
Ich hätte gerne mal wieder den "Wow-Gedanken" wenn Intel, AMD oder Nvidia was bringen.
Nächstes Jahr bringt Nvidia bestimmt GPUs mit 1200 Watt TDP, Intel CPUs mit 350 Watt TDP und AMD CPUs mit 290 Watt TDP. Alles für die "Consumer", versteht sich, denn "viel bring viel".
Ich finds witzig. 😂👍
Die gestiegene TDP ist natürlich garnicht schön,
aber ein paar Watt werden auch der neu hinzugekommenen iGPU geschuldet sein.
Keine Ahnung wieviel realistisch ist.... ~10W ?