News Bis zu zehn Kerne: Intel bestätigt Comet Lake als Coffee Lake Refresh Refresh

Aldaric87 schrieb:
Bei den CPU's ist plötzlich der Verbrauch egal, solange man es noch irgendwie gekühlt gekriegt. Im GPU Unterforum wird jedoch einer AMD GPU die Existenzberechtigung entzogen, wenn sie im Jahr 3 € mehr Strom verbraucht. :freak:
Klar darf so was nicht sein das einen GPU im Jahr um 3.-€ mehr Strom braucht. Irgendwo muss man ja sparen wenn man schon die CPU auf OC fährt. Da muss man doch wenigstens bei der GPU was für die Umwelt tun. :)

Würde die wirklich was für die Umwelt tuen wollen hätten sie ja nur CPUs die nur 35 Watt verbrauchen. Sie hätten dann auch kein Auto und kein TV. Aber man kritisiert halt gerne was man in einer anderen Form selber tut 😎
 
Wenn jemand mit dem Klimaschutz ankommt, dann denke ich immer an die Reportage Frauenmangel in Asien mit dem sehr interessanten Hinweis auf die Parallelen zum Klimawandel kurz vor dem Ende der Reportage.
 
  • Gefällt mir
Reaktionen: Gerry18
Klimaschutz? Da geht es eher um Strom kosten, Lautstärke und Kühlbarkeit, Netzteil und so weiter.
Wenn AMDs vergleichbare CPU 50 Watt weniger zieht und leichter zu kühlen ist, ist ja klar welche CPU ich nehme.
 
doof123 schrieb:
Es fallen immer noch viele Leute auf diesen Marketing-Trick mit den Kernen rein.
Eine gewisse Anzahl an Kernen ist für das Energie-Managment und die Skalierung noch sinnvoll, ok. Einzelne Kerne können auch ganz gut skaliert werden.
Wichtig ist ebenfalls Cache, wie viel schneller Speicher pro Kern zur Verfügung steht.
Was bringen 16 Kerne mit laxer Leistung?
6 größere Kerne mit mehr Cache sind da eventuell sogar stärker und besser skalierbar.
Muss schließlich alles noch adressiert werden, mehr Kerne = höhere Latenzen.
Ähm.. dir ist aber schon aufgefallen, daß die Taktbarkeit seit einiger Zeit ziemliche Grenzen erreicht hat? Ja, wenn die Wahl zwischen einem Kern mit 8Ghz statt zweier mit 4GHz bestünde (bzw. 4 vs 8 oder 8 vs 16), könnte man deinen Weg gehen mit "größeren" aber dafür weniger Kernen gehen. So aber bleibt es dabei, daß die doppelte Kernzahl eine Nahezuverdoppelung der möglichen Rechenleistung bedeutet. Ganz besonders, wenn man Anwendungen betreibt, die mit vielen Kernen gut skalieren.

Also eben KEIN Marketingtrick!
Intel hält doch auch icht ohne Grund am Hyperthreading fest, obwohl dessen Nutzen seit dem Existieren von Mehrkernprozessoren längst nicht mehr den Schub von damals bringt, als man damit noch eine Einkern-CPU bestückte, und damit im günstigsten Fall die Rechenleistung verdoppelte, obwohl nach wie vor nur ein Kern mit x GHz vorhanden war.
 
Das wird auf jeden Fall ein interessanter Sommer / Herbst, AMD sei Dank!
Ich werd mal schauen was AMD und Intel sich da für eine Schlacht liefern und dann im Herbst / Winter,
wenn die Schlechtwetterzeit (=Zockzeit^^) los geht, mir wieder ein feines, neues Gaming-Rig basteln.
 
  • Gefällt mir
Reaktionen: Fragy90
Kommt darauf an wie man das ganze betrachtet und ob man auch tatsächlich in Berührung mit den Stromkosten gekommen ist, im Sinne der Nutzungsdauer.


'Xander schrieb:
Jemand, der sich einen Pc von oberhalb 1000€ leistet, dem wird doch nicht vom Stromverbrauch die Hose ausgezogen.

Ich finanziere seit einigen Jahren von der gesparten Kohle meine Systeme genau damit.
Wo früher 2 ältere Kisten mit "Fressern" (absolutes Worstcase) hier standen ging die Stromrechnung bei weitaus günstigeren Strompreisen auf sage und schreibe 95€ / Monat hinauf (mit minimal Puffer), immerhin sind die Heizkosten extrem niedrig gewesen dann in der Winterzeit ^^.

Dann rechne die Summe mal auf 4 Jahre hinauf - das gibt nicht nur einen schönen Urlaub, sondern ganz viele.
Oder eben alle 2 Jahre aktuelle PCs.
Ist doch wie beim Auto - viele PS und ein Schluckspecht und das Schlucken muss auch bezahlt werden, sonst fährts nicht.

Bei den Meisten wird das absolut irrelevant sein, wenn die Kisten dann aber 8+ Stunden oder sogar 24/7 laufen, dann wird das ganz schnell Relevanz haben.

Der einzige Grund warum der 9900K überhaupt gekauft wurde (den hab ich damals auch schlecht geredet!) war das mein 6800K durch die ganzen Updates zur Sau gemacht wurde und ständig die Überforderung trotz OC zu spüren war, obwohl die Anwendungen und Einsatzbereiche genau die Gleichen wie beim Kauf waren und auch damals erfüllt worden sind.

Ansonsten steht nen 8700K und dem nicht "Hochleistungsgamer" der die letzten 10-15 min und max FPS brauch, auch noch ein 2600 und 2700 zur Verfügung und bekommt die besseren Produkte in diesem Szenario.

Prinzipiell hätte es nen 8700K auch getan ohne Probleme, aber mit den Sprüngen in der Anzahl der Kerne hab ich auch nicht Lust nächstes Jahr darüber zu heulen nur 6 Kerne zu besitzen und wieder kaufen zu müssen.
Das nächste Battlefield wird mit Sicherheit auch wieder zu langen und Kerne/Threads in Massen schlucken oder wieder bei zu wenigen Kernen generell stark limitieren.

Begeisterung über einen aktuellen Prozessor sieht bei mir aber definitiv ganz anders aus, ein Blick auf den ausgelesenen Verbrauch und mir wird übel, denn ich hätte nämlich lieber eine technische Verbesserung und nicht eine Mehrfachsteckdose wo immer mehr Verbraucher hinzu kommen, so schaut die Architektur bei Intel nämlich gerade aus.


Aber vom Prinzip her hat der Verbrauch für alle Relevanz, bessere Kühlleistung kostet nämlich auch mehr Geld - mich hats überhaupt gewundert das ein Noctua überhaupt so eine kleine Fläche noch anständig gekühlt bekommt bzw. die Wärme abführen kann (genau genommen kann er die angegeben / beworbenen Werte nicht überall abführen sonst würde ich nicht über die 100°C raus schießen im Worstcase wenn ich die Limitierungen entferne was sich der Prozi an Saft gönnen darf und dabei heizt die Grafikkarte noch nicht mal mit, das würde den Vogel völlig abschießen.

Gäbe es ein Spiel das den Prozessor so effektiv nutzt wie Cinebench, dann wäre das Teil die letzte Krücke innerhalb seiner 95 Watt und ein Gaming-Abfallprodukt sondergleichen.
Das Teil wird mit nem All Core Turbo von 4700MHz beworben und 5GHz bei 2 Kernbelastung - das wird nie erreicht (5Ghz) oder unter allen Umständen gehalten (8x4700).

Das Teil schluckt und schluckt, das ist Fernab von dem was ich bei meinem 6800K lesen durfte, ob in meinem Anwendungsbereich, Cinebench oder Prime...

Bei meinem 6800er konnte ich Prime praktisch 24/7 laufen lassen, weder der Verbrauch trotz OC war so hoch, noch sind überhaupt die Taktraten so extrem (gar nicht) eingeknickt, wie sie es beim 9900K tun.

Die Architektur krebst, wenn Intel jetzt mit 10 Kernen ankommt und dann noch die Gaming Krone haben will (also hohe Taktraten), viel Spaß mit den extra Kosten - alleine schon die Kühlung wird Geld fressen ohne Ende.

Ohne das Teil voll auszulasten, komme ich bei Apex Legends + Aufnahme auf ~125w - laste ich das Teil voll aus, mit bestmöglichster Aufnahmequalität, dann Ende ich bei 190+ und muss das Fenster im Winter bestenfalls aufmachen, damit das Teil nicht sofort Notabschaltet wegen der Temperatur oder den Takt nicht so weit absinkt, dass ich nen Athlon XP feeling erhalte.

Dabei ist nicht mal AVX genutzt - die Temperaturen die ich in meiner "normalen" Anwendung habe hatte ich das letzte Mal vor über 14 Jahren gesehen mit ner schlecht gekühlten OEM Kiste und einem Boxed Kühler.


Also kurz gesagt: Es ist für jeden Relevant ob man das wahrhaben möchte oder nicht.
Spiele schon mit dem Gedanken ne größere AiO zu besorgen weil ich die Temperaturen teils zu krank finde und dabei ist das Worst-Case-Szenario mit 32°C Raumtemperatur im Sommer noch nicht mal erschienen.
 
  • Gefällt mir
Reaktionen: darkcrawler
eax1990 schrieb:
Kommt darauf an wie man das ganze betrachtet und ob man auch tatsächlich in Berührung mit den Stromkosten gekommen ist, im Sinne der Nutzungsdauer.




Ich finanziere seit einigen Jahren von der gesparten Kohle meine Systeme genau damit.
Wo früher 2 ältere Kisten mit "Fressern" (absolutes Worstcase) hier standen ging die Stromrechnung bei weitaus günstigeren Strompreisen auf sage und schreibe 95€ / Monat hinauf (mit minimal Puffer), immerhin sind die Heizkosten extrem niedrig gewesen dann in der Winterzeit ^^.

Dann rechne die Summe mal auf 4 Jahre hinauf - das gibt nicht nur einen schönen Urlaub, sondern ganz viele.
Oder eben alle 2 Jahre aktuelle PCs.
Ist doch wie beim Auto - viele PS und ein Schluckspecht und das Schlucken muss auch bezahlt werden, sonst fährts nicht.

Bei den Meisten wird das absolut irrelevant sein, wenn die Kisten dann aber 8+ Stunden oder sogar 24/7 laufen, dann wird das ganz schnell Relevanz haben.

Der einzige Grund warum der 9900K überhaupt gekauft wurde (den hab ich damals auch schlecht geredet!) war das mein 6800K durch die ganzen Updates zur Sau gemacht wurde und ständig die Überforderung trotz OC zu spüren war, obwohl die Anwendungen und Einsatzbereiche genau die Gleichen wie beim Kauf waren und auch damals erfüllt worden sind.

Ansonsten steht nen 8700K und dem nicht "Hochleistungsgamer" der die letzten 10-15 min und max FPS brauch, auch noch ein 2600 und 2700 zur Verfügung und bekommt die besseren Produkte in diesem Szenario.

Prinzipiell hätte es nen 8700K auch getan ohne Probleme, aber mit den Sprüngen in der Anzahl der Kerne hab ich auch nicht Lust nächstes Jahr darüber zu heulen nur 6 Kerne zu besitzen und wieder kaufen zu müssen.
Das nächste Battlefield wird mit Sicherheit auch wieder zu langen und Kerne/Threads in Massen schlucken oder wieder bei zu wenigen Kernen generell stark limitieren.

Begeisterung über einen aktuellen Prozessor sieht bei mir aber definitiv ganz anders aus, ein Blick auf den ausgelesenen Verbrauch und mir wird übel, denn ich hätte nämlich lieber eine technische Verbesserung und nicht eine Mehrfachsteckdose wo immer mehr Verbraucher hinzu kommen, so schaut die Architektur bei Intel nämlich gerade aus.


Aber vom Prinzip her hat der Verbrauch für alle Relevanz, bessere Kühlleistung kostet nämlich auch mehr Geld - mich hats überhaupt gewundert das ein Noctua überhaupt so eine kleine Fläche noch anständig gekühlt bekommt bzw. die Wärme abführen kann (genau genommen kann er die angegeben / beworbenen Werte nicht überall abführen sonst würde ich nicht über die 100°C raus schießen im Worstcase wenn ich die Limitierungen entferne was sich der Prozi an Saft gönnen darf und dabei heizt die Grafikkarte noch nicht mal mit, das würde den Vogel völlig abschießen.

Gäbe es ein Spiel das den Prozessor so effektiv nutzt wie Cinebench, dann wäre das Teil die letzte Krücke innerhalb seiner 95 Watt und ein Gaming-Abfallprodukt sondergleichen.
Das Teil wird mit nem All Core Turbo von 4700MHz beworben und 5GHz bei 2 Kernbelastung - das wird nie erreicht (5Ghz) oder unter allen Umständen gehalten (8x4700).

Das Teil schluckt und schluckt, das ist Fernab von dem was ich bei meinem 6800K lesen durfte, ob in meinem Anwendungsbereich, Cinebench oder Prime...

Bei meinem 6800er konnte ich Prime praktisch 24/7 laufen lassen, weder der Verbrauch trotz OC war so hoch, noch sind überhaupt die Taktraten so extrem (gar nicht) eingeknickt, wie sie es beim 9900K tun.

Die Architektur krebst, wenn Intel jetzt mit 10 Kernen ankommt und dann noch die Gaming Krone haben will (also hohe Taktraten), viel Spaß mit den extra Kosten - alleine schon die Kühlung wird Geld fressen ohne Ende.

Ohne das Teil voll auszulasten, komme ich bei Apex Legends + Aufnahme auf ~125w - laste ich das Teil voll aus, mit bestmöglichster Aufnahmequalität, dann Ende ich bei 190+ und muss das Fenster im Winter bestenfalls aufmachen, damit das Teil nicht sofort Notabschaltet wegen der Temperatur oder den Takt nicht so weit absinkt, dass ich nen Athlon XP feeling erhalte.

Dabei ist nicht mal AVX genutzt - die Temperaturen die ich in meiner "normalen" Anwendung habe hatte ich das letzte Mal vor über 14 Jahren gesehen mit ner schlecht gekühlten OEM Kiste und einem Boxed Kühler.


Also kurz gesagt: Es ist für jeden Relevant ob man das wahrhaben möchte oder nicht.
Spiele schon mit dem Gedanken ne größere AiO zu besorgen weil ich die Temperaturen teils zu krank finde und dabei ist das Worst-Case-Szenario mit 32°C Raumtemperatur im Sommer noch nicht mal erschienen.

dein case ist auch irgendwie nicht so ne geile wahl für so eine cpu und gpu. ein mesh teil wäre da schon eher angebracht
 
^ da ist generell nichts Optimal daran - hätte ich mehr Platz wäre der Optimalzustand 2 Rechner zu haben und das neue System wäre einfach nur nen 8700K, während ich übers Netzwerk den ganzen Kram rüber werfe.

Ich sag ja, ich bin nicht zufrieden - noch mal Kohle in Gehäuse und Kühlung stopfen, dann ist die Überlegung schon vorhanden gleich alles zu verkaufen und z.B. 2 Ryzen Systeme zu basteln, denn dann wäre das möglich.

Wenn Intel jetzt wirklich noch die nächste Gen so raus bringt und noch 2 weitere Herdplatten einbaut, bei einem zum jetzigen Zustand kaum kühlbaren Chip, dann können die ihre Prozessoren auch gleich in "Intel FX Fressdozer der 9. und 10. Generation" umbenennen.

Rein von der Effizienz ist jetzt Z390 + i9 9900K absolut suboptimal, denn für Contentcreation ist der Prozi zu schlecht gegenüber dem AMD Angebot, wenn 2 Rechner nötig sind und im Bereich Gaming fast komplett an der Zielgruppe vorbei geschossen - der hat dort gar keine Daseinsberechtigung, wenn der i7 8700K das exakt gleiche stemmen kann (was momentan nötig ist) zum halben Preis und zum vollen Preis 2 Prozessoren gekauft werden können, die in allen Situationen überlegen sind.

Ich freue mich jetzt schon riesig auf den Wertverlust meiner Hardware wenn AMD ne gute Pro Kern Leistung bei niedrigen Latenzen im Gaming bringen sollte - wird dann Prozentual genau die 1:1 gleiche wie beim 6800K, nicht mal ein Viertel des Kaufpreises.
 
Zuletzt bearbeitet:
Aldaric87 schrieb:
Bei den CPU's ist plötzlich der Verbrauch egal, solange man es noch irgendwie gekühlt gekriegt. Im GPU Unterforum wird jedoch einer AMD GPU die Existenzberechtigung entzogen, wenn sie im Jahr 3 € mehr Strom verbraucht. :freak:

Da machst es dir jetz sehr einfach denn bei GPUs bewegt sich die Differenz in einer ganz anderen Größenordnung. Beispiel: RX 590 - GTX 1660 TI
+24% Performance
208W zu 118W (-90W, Spiele Durchschnitt CB)

Damit normalisiert mehr als die doppelte Verlustleistung bei gleicher Performance (Effizienz). Da die Verlustleistung 1 zu 1 in Wärme umgesetzt wird ist das ziemlich übel. Bei CPUs ist die Differenz bei realer Last viel geringer.
 
@'Xander Sorry, aber da redest du einfach Mist. Warum sollte ich mir eine CPU reinknallen, die überflüssig Energie verbraucht und damit Abwärme produziert? Das zeichnet ja eine moderne und gut designte Prozessorarchitektur aus🤷‍♂️ Ein i9 9900K ist damit eben keine gute CPU, sie wurde mit der Brechstange entworfen und das ist keine Kunst😉
By the way: Wir haben in Deutschland die höchsten Strompreise in Europa und dann kommt noch der Umweltschutzaspekt dazu...Willkommen im 21.Jahrhundert.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Minutourus
avx, ipc hin oder her, 4kerne gab es 2009-10 schon für 80€
 
Wie oft wollen die den Kaffee noch brühen.

Weil wir es AMD zu verdanken haben, dass Intel endlich mal von ihren fetten Ärschen aufsteht, unterstütze ich AMD mit Kauf der nächsten Ryzen Generation.

Trotzdem bin ich gespannt wie sich der frisch gebrühte Kaffee See schmeckt
 
milliardo schrieb:
Die Core-Wars werde ich dagegen nicht mitspielen. Für Spiele sowieso nicht nötig und selbst im Jahre 2019 ist viel Software für den Haus-und Heimgebrauch noch nicht oder nicht ordentlich auf Multicore optimiert.
Das kommt auf die individuelle Nutzung drauf an, einige Software skaliert schon ganz gut. Acht Kerne reichen sicher für die Meisten. Darüber entscheidet dann der Preisunterschied und eingesetzte Software. Aber wenn AMD mit Zen3 acht 16 Kerne auf die Mainstreamplattform drückt, dann wird es viele Kerne zu erschwinglichen Preisen geben. Und dann wird auch Intel gezwungen sein in Zukunft ebenfalls mehr Kerne zu bieten und wir haben den Luxus nicht mehr am CPU-Limit rumzukrebsen. :)


Ansonsten gebe ich auf. Ich wurde bislang 10x zitiert mit Begründungen wofür man mehr als acht Kerne benötigt. Ich habe einem User offensichtlich eine rhetorische Frage gestellt. Aus meinem Post geht klar hervor, dass ich durchaus Nutzen sehe. Zitiert den anderen Halunken, für den das alles Unsinn ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: milliardo
Klassikfan schrieb:
Intel hält doch auch icht ohne Grund am Hyperthreading fest, obwohl dessen Nutzen seit dem Existieren von Mehrkernprozessoren längst nicht mehr den Schub von damals bringt, als man damit noch eine Einkern-CPU bestückte, und damit im günstigsten Fall die Rechenleistung verdoppelte, obwohl nach wie vor nur ein Kern mit x GHz vorhanden war.

SMT - was bei Intel HT benannt wurde - dient einfach nur der Auslastungsoptimierung. Die pipeline wurde ja bereits in Silizium gegossen, wenn der Zyklus allerdings nicht die ganze pipeline benötigt für die Berechnung kann man mit SMT die restlichen Transistoren noch nutzen. Hängt immer davon ab wie lang die pipeline ist und welche Berechnungen erfolgen müssen. Du hast immer etwas Verlust durch das Aufteilen der Berechnungen auf die pipelines, ähnlich wie bei multithreading über viele cores hinweg (Software muss dafür auch ausgelegt sein), aber da mit Skylake die pipeline wieder um vier oder fünf Stufen verlängert wurde, macht HT immer noch Sinn.
Ähnlich bei Zen.
Ergänzung ()

bensen schrieb:
Das kommt auf die individuelle Nutzung drauf an, einige Software skaliert schon ganz gut. Acht Kerne reichen sicher für die Meisten. Darüber entscheidet dann der Preisunterschied und eingesetzte Software. Aber wenn AMD mit Zen3 acht Kerne auf die Mainstreamplattform drückt, dann wird es viele Kerne zu erschwinglichen Preisen geben. Und dann wird auch Intel gezwungen sein in Zukunft ebenfalls mehr Kerne zu bieten und wir haben den Luxus nicht mehr am CPU-Limit rumzukrebsen. :)

Acht Kerne gab es doch schon bei der ersten Ryzen-Gen im Mainstream. Oder meinst Du die Athlon/APU-Sparte?
Für AMD ist Ryzen mainstream, und auch wenn man nicht zwingend die 300 Euro für den Octa ausgeben musste weil die quads mit SMT für das meiste ausgereicht haben, war die Plattform immer mainstream :)

Fakt ist, dass Hintergrundprozesse immer die CPU belasten. Und JEDES OS hat Hintergrundprozesse, tonnenweise. Weitere software, wenn sie z.B. acht Kerne ausnutzen kann, würde demzufolge von einem Zehnkerner profitieren. Und da moderne Browserarchitektur mittlerweile auch die Aufteilung der Fenster auf verschiedene threads erlaubt, wird sogar der popelige Internetbrowser durch multicores beschleunigt.
Das Thema wird für Privatanwender sowieso immer interessanter da viele "casual"-Software immer mehr auch dem App-Bereich entspringt, eben für x64 statt ARM umgesetzt. Und im mobile/lowpower-Segment wird Leistung nicht über Takt sondern Kerne skaliert, weil es energieeffizienter ist.
 
Zuletzt bearbeitet:
KFSattmann schrieb:
Schön zu sehen das wieder etwas Schwung in den CPU Markt kommt. Für uns Consumer ist das super.

Ich antworte auf dein Post mal mit einem Direktzitat aus dem Artikel:

Ringbus, Speicherinterface sowie alle sonstigen Architektur-Merkmale bleiben wie bei Skylake aus dem Jahr 2015.

"Schwung" in den CPU-Markt wird allerhöchstens mit den Ryzen-3000-Prozessoren auf Zen2-Basis kommen - die dann wohlgemerkt schon im 7nm Verfahren hergestellt werden. Intel wird das vierte Jahr in Folge auf die nahezu gleiche Technologie setzen.
 
Bei den 10-Kerne "Kometen-See" CPUs braucht's dann vermutlich wieder eine gut umgesetzte Kuehlung, die dann vielleicht schon Richtung HEDT-Prozessoren/-Boards geht (vergleichbar wie bei dem vor kurzem auf Tomshw.de getesteten X299 Aorus/Gigabyte Master Board)? Preisguenstig duerften gute Comet Lake Boards bei den Kuehlanforderungen mit Sicherheit nicht werden.

Gespannt bin ich schon maechtig auf die Kuehlleistung und Verbrauch, die sowohl bei AMDs Matisse Mainstream- und Castle Peak HEDT-Threadripper-Prozessoren anfallen werden werden.

Dass Intel an einem 10nm CPU Gegenschlag, denn es hinkt bei Intel dann wohl doch sehr offensichtlich bzgl. einer sagenumwobenen "on demand" Schublade :volllol:, auf Hochtouren arbeiten duerfte (den es dann aber nur zu deftigen Marktpreisen geben duerfte) arbeiten wird, davon wird man wohl ausgehen koennen und 2020 wird es dann wohl wirklich Zeit das Geheimnis zu lueften, was die Intel 10nm Fertigung denn ansatzweise/anfaenglich kann/bringt.

Es bleibt zu hoffen, dass auch Softwareentwickler, allen voran die Spieleentwickler, dann endlich Mehrkernoptimierung (ein Minimum von 4 echten Kernen mit Threading voraussetzend und 8 echte Kerne effizient/lohnend unterstuetzend) bei Spielen rigoros - auch zur Entlastung von GPUs - einfliessen lassen wird, denn ein wirklicher Trend zeichnet sich leider dahingehend immer noch nicht ab, waere aber laengst ueberfaellig (ist aber von den marktbeherrschenden CPU- und dGPU-Entwicklern Intel und nVidia evt. aktuell (noch) nicht gewollt?).

Eine 16-Kerne Matisse CPU (die ja auch versetzt/spaeter nach dem ersten offiziellen Marktstart der RyZen 3000 CPUs nachgereicht werden kann) habe ich gedanklich jedenfalls auch noch nicht abgeschrieben ;).
 
Zuletzt bearbeitet:
Aldaric87 schrieb:
Bei den CPU's ist plötzlich der Verbrauch egal, solange man es noch irgendwie gekühlt gekriegt. Im GPU Unterforum wird jedoch einer AMD GPU die Existenzberechtigung entzogen, wenn sie im Jahr 3 € mehr Strom verbraucht. :freak:

Dem Grunde nach ist der Verbrauch nicht egal (und muss zB für mich persönlich immer leise zu kühlen sein), allerdings sollte man schon im Detail die Deltas betrachten.

Bezogen auf den aktuellsten GPU Test der Radeon VII liegen zB die 1080FE mit Vega64 in wqhd bei ~63fps gleichauf, jedoch verbrauchen diese im gleichen Testbericht unterschiedlich viel, nämlich 178 zu 303 Watt. Da passt selbst die komplette TDP einer Mainstream CPU mit bissl OC rein (Gaming Last, nicht 100% prime95) und ist daher durchaus ne Hausnummer.
 
Zurück
Oben