Mein AMD-Erlebnis (eine Art "Tagebuch")

Techno, wie warm wird die Evga, wenn ganz viel Powertarget (210W) genutzt wird? Wenn ich Crysis 1 anschalte, in den Himmel schaue, bin ich bei ~90%/~210W und bei ~85°C mit der schei* AMP. TT hoch gestellt. Ich mache mal gleich ein Bild rein.

Edit:
Crysis_2016_08_10_22_32_10_521.jpg
Davor war sie bei 84°C, 90% PT und 1873MHz. TT auf 92°C gestellt. Raumtemperatur ca. 23°C. Dieses sinnlose Gedrossel im GPU-Boost 3.0 rettet den Kühler aber nicht.

Edit: Auflösung war eins unter UHD, machte aber keinen Unterschied. So konnte ich das OSD noch lesen.

Edit: Pausenbildschirm war dafür, dass die TDP nicht so schwankte wegen umherfliegenden Senkrechtstartern.
 
Zuletzt bearbeitet:
Wie kann ich das interpretieren?

Erreicht die Karte das PT von 215W mit Default Settings (PT 100%) oder erreiche ich die 215W bei PT 120%
 

Anhänge

  • FTW_Specs.JPG
    FTW_Specs.JPG
    103 KB · Aufrufe: 524
ODST schrieb:
Mich würde das interessieren. Rein Performance technisch, konnte ich meinen alten 4970K nicht mit dem aktuellen 6700K vergleichen, weil ich gleichzeitig ein Grafik-Downgrade (980->970) gemacht hatte.

Außerdem habe ich den Fehler gemacht nur mit 2133MHz RAM einzusteigen. Daher wäre es hilfreich, wenn du Cinebench R15 Werte mit 4,5GHz posten könntest. So könnte ich mir ein Bild machen ob sich die zuästliche IPC im CPU Limit lohnen könnte.

Und bootet dein System auch so langsam? Laut Task Manager dauert mein Boot im Schnitt 24 Sekunden. Das war ich mir vom 4790K + Z97-Pro Wifi anders gewohnt. :)

Anhang anzeigen 574104

Ich komme im Cinebench15 mit 4790K@4.5Ghz auf 916 Punkte. Mein Boot dauert ca. 17 Sekunden.
 
Und wie siehts mit dem neuen System aus? (Punkte)

Merkst du im Betrieb einen Unterschied?
 
Banger schrieb:
Techno, wie warm wird die Evga, wenn ganz viel Powertarget (210W) genutzt wird? Wenn ich Crysis 1 anschalte, in den Himmel schaue, bin ich bei ~90%/~210W und bei ~85°C mit der schei* AMP. TT hoch gestellt. Ich mache mal gleich ein Bild rein.

Edit:
Anhang anzeigen 574128
Davor war sie bei 84°C, 90% PT und 1873MHz. TT auf 92°C gestellt. Raumtemperatur ca. 23°C. Dieses sinnlose Gedrossel im GPU-Boost 3.0 rettet den Kühler aber nicht.

Edit: Auflösung war eins unter UHD, machte aber keinen Unterschied. So konnte ich das OSD noch lesen.

Edit: Pausenbildschirm war dafür, dass die TDP nicht so schwankte wegen umherfliegenden Senkrechtstartern.

Ich habe gerade mal 20 Minuten den FireStrike Ultra StressTest durchlaufen lassen. Einfach nur das PT auf 120%/92°C gesetzt. Ich komme auf maximal 111.6% PT und liege dann bei genau 80°C 1700 RPM und 60% Lüfter. Dabei liegt der Boost nach 20 Minuten mit 100% GPU Last bei 1936 Mhz.
Ergänzung ()

ODST schrieb:
Und wie siehts mit dem neuen System aus? (Punkte)

Merkst du im Betrieb einen Unterschied?

Ich habe das neue System ja noch nicht =), die Sachen kommen wohl erst morgen.
 
Ich kann es dir nicht sagen.

Ich weiß nur, dass der 3 Slot Lüfter von der GameRockPremium da erheblich besser war. Da hätte man jetzt Werte von ca. 74°C bei 1500 RPM.

Allerdings ist die Qualität der Bauteile bei Palit schon eine andere als bei EVGA. Das merkt man absolut. Im Forum hier gibt es diverse Berichte von defekten Palit und Gainward Karten. Auch bei Ebay sind viele Defekte Karten von Palit oder Gainward. Deshalb geben die vermutlich auch nur wenig Garantie auf ihre Karten.

Außerdem stört mich dieser Plastiklook massiv. Spulenfiepen haben die noch immer, dafür ist das Lüfterrasseln wohl weg.

Ich bin mal gespannt was morgen der Tausch von der WLP bringt.
 
Bei der Zotac war es 1°C. Ebenfalls Grizzly. Bei der Zotac würde es schon helfen, wenn ein Bios kommt. Ist dann zwar erheblich lauter, aber dann auch kälter. Und für mehr Reserven die Begrenzung von 2100 auf 3000 1/min stellen. Könnte man auch das Bios von der AMP Extreme flashen? Die müssten ja das gleiche PCB haben.

Die KFA2 mit den 3 Lüftern für 749€ bei MF könnte auch gut sein.

Habe auch Alternate mal angeschrieben, ob sich was machen lässt. Mal heute Nachmittag nach Antwort schauen. Verstehe nicht, warum Zotac so einen Mist abliefert, wenn MSI und Evga es trotz kleinem Chip besser hinkriegen.
 
Die KFA2 ist mit Sicherheit gut. Die wollte ich mir auch holen, aber da ich immer die FTW wollte und diese verfügbar war, konnte ich nicht anders als zuschlagen.

Wirklich komisch ist, dass nur die AMP bei allen 1080ern aus der Reihe tanzt. Keine Ahnung was Zotac da verbrochen hat.
 
Vielleicht sind ja die Modelle wie MSI Armor oder die billige KFA2 für 669€ auch Schrott wie die AMP. Die testet ja auch keiner, zumindest ist mir nichts bekannt.
 
Der AMP! Kühler ist einfach unterdimensioniert für das Extreme PCB, die ja bekanntlich mehr als eine normale eine 1080 verbraucht.

Anstatt nach günstigen Alternativen zu suchen, würde ich einfach einen anderen Kühler drauf schnallen, sobald wieder Kohle da ist.
 
Ich glaube der DPC 368.95 Beta ist etwas unoptimiert. Mir fehlen in Ashes of the Singularity auf einmal 5 FPS und beim CPU Score 3 FPS, verglichen zum 1080FE Launch Treiber.

Wann kommt eine neue WHQL Version, weiß das jemand?
 
Vor dem Deus Ex: Mankind Divided Release kommt sicher noch ein neuer GameReady Treiber.
 
Auch wenn BF1 noch in der Alpha ist, es geht scheinbar mit DX11 doch eher in Richtung CPU-Limit, zumindest in niedrigeren Auflösungen.

6600K@4.6Ghz und GTX1070

https://www.youtube.com/watch?v=Ft7vbiG9kXI

Mal bei 10:19+ gucken....knallhartes CPU-Limit. GPU Load fällt auf schreckliche 56% :freak::freak::freak::freak:, mein persönlicher Albtraum! Gleichzeitig sinken die FPS auf 72 oder so. Waaaaah, das ist wirklich DAS Horrorszenario schlechthin für mich.

Genau aus diesem Grund existiert dieser Thread =D. Sowas will ich auf keinen Fall haben. Bei 1440P wird da schon mehr Last kommen und dann bleibt mir noch 6700K vs. 6600K, gerade in einem Multithread-Monster-Spiel wie Battlefield, macht sich Hyperthreading schon sehr bezahlt.

Sehr interessant wird hier auch die DX12 Implementierung und wie sich damit die Lastverteilung verhält.

Was könnte DX12 in diesem konkreten Beispiel bewirken?

Wir haben eine Szene mit 72FPS und nur noch 56% GPU Last. Mit anderen Worten, die GPU KÖNNTE hier locker 110 FPS darstellen, aber die CPU kann die Grafikkarte nicht mehr mit Daten füttern, da sie komplett ausgelastet ist mit der spielinternen Physikberechnung.

Was macht DX12 an dieser Stelle? Käme hier Async zum Einsatz? Wie bekomme ich in EXAKT dieser Szene die GPU Last auf > 95%? Kann DX12 sowas?

Mit DX11 ist die Antwort ganz einfach, wie bei BF4 auch... du brauchst einfach nur einen 4790K mit 6Ghz oder so....
Ergänzung ()

Mega übel, der FX8350 schafft es noch nichtmals ansatzweise eine 270X auf 1080P und Medium-Settings ordentlich zu versorgen...


https://www.youtube.com/watch?v=xQ92TPNJaRY


45 FPS.....da sieht man wie unglaublich schlecht die Vishera IPC ist. Da helfen mir auch 100000 Kerne nichts.
 
Ich hoffe der 6700K @4,5GHz kommt besser zurecht^^ Ein echter 8-Core müsste theoretisch noch besser, wenn nicht nur einzelne Threads limitieren.

Und wenn deine Ergebnisse mit +3000 RAMs vielversprechender aussehen, wie mit meinen 2133er, wäre ich nicht wirklich überrascht und müsste dann mitziehen. War schon bei BF4 so... :)
 
Das Paket kommt doch niemals heute an....verdammte Hacke....
 

Anhänge

  • nä.JPG
    nä.JPG
    63,8 KB · Aufrufe: 553
ODST schrieb:
Der AMP! Kühler ist einfach unterdimensioniert für das Extreme PCB, die ja bekanntlich mehr als eine normale eine 1080 verbraucht.

Anstatt nach günstigen Alternativen zu suchen, würde ich einfach einen anderen Kühler drauf schnallen, sobald wieder Kohle da ist.

Ich zitiere mich aus dem 1080-Thread:

Das ist richtig heftig! :o Ich habe mal 3 Szenarien mit Heaven auf Max. auf 1440P getestet, Raumtemperatur ca. 22°C. TDP war immer um 75% oder knapp drunter.

Lüfter unten schräg am Boden, neben Festplattenkäfig: 8 Minuten, max. 78°C, 64% Lüfter, ~1470 1/min

Lüfter mittig unter der Karte mit ca. 5cm Abstand: 12 Minuten, max. 75°C, 60%, 1370 1/min

Lüfter aus: 12 Minuten, max. 78°C, 65%, 1500 1/min

Habe auch den Support von Zotac gefragt, ob die ein Bios mit höheren Drehzahlen schicken können, bzw. ob man da an den Kühler der AMP Extreme kommt.

t3chn0 schrieb:
Mal bei 10:19+ gucken....knallhartes CPU-Limit. GPU Load fällt auf schreckliche 56% :freak::freak::freak::freak:, mein persönlicher Albtraum! Gleichzeitig sinken die FPS auf 72 oder so. Waaaaah, das ist wirklich DAS Horrorszenario schlechthin für mich.

Mit meinen Einstellungen bei GTA5, die ich auf der TI hatte, kriege ich nicht mal durchgehend in der Pampa GPU-Limit hin, welches noch bei der TI gab. Mal gucken, ob ich mit Gras eine Stufe runter noch Leistung auf der CPU spare, bzw. mehr FPS kriege. Am Sägewerk geht es auf 55 runter, während die Karte nicht voll ist. :mad:

Ergänzung ()

Mega übel, der FX8350 schafft es noch nichtmals ansatzweise eine 270X auf 1080P und Medium-Settings ordentlich zu versorgen...

45 FPS.....da sieht man wie unglaublich schlecht die Vishera IPC ist. Da helfen mir auch 100000 Kerne nichts.

Ich will hardwareseitige Threadverteilung, welche bei Chipsätzen wie C610 mit Xeon E5 gibt. :mad: Dann würde bei GTA5 und bei Minecraft mit Shader immer die Karte auf Anschlag laufen. 99% auf der Karte ist eine gute Auslastung, aber nicht ständige Schwankungen.
 
ODST schrieb:
Mich würde das interessieren. Rein Performance technisch, konnte ich meinen alten 4970K nicht mit dem aktuellen 6700K vergleichen, weil ich gleichzeitig ein Grafik-Downgrade (980->970) gemacht hatte.

Außerdem habe ich den Fehler gemacht nur mit 2133MHz RAM einzusteigen. Daher wäre es hilfreich, wenn du Cinebench R15 Werte mit 4,5GHz posten könntest. So könnte ich mir ein Bild machen ob sich die zuästliche IPC im CPU Limit lohnen könnte.

Und bootet dein System auch so langsam? Laut Task Manager dauert mein Boot im Schnitt 24 Sekunden. Das war ich mir vom 4790K + Z97-Pro Wifi anders gewohnt. :)

Anhang anzeigen 574104

So, mein neues System steht. Hier mal ei erstes Ergebnis mit 4.5Ghz und 3600er Speicher.

Update, CPU läuft mit 1h Prime95 mit 1.264V und 4.7Ghz bei 61°C.

Ich habe jetzt mal die NVMe Platte installiert....da fällt mir der Kitt aus der Brille. Die Crucials machen im Samsung Magician 520MB lesen und 505MB schreiben, dazu ca. 27.000 iops.

Die verdammte NVMe kommt auf 2260MB lesen und 1350MB schreiben und 48.000 iops....what the hell is going on?!....
 

Anhänge

  • 6700KCB15_4500.JPG
    6700KCB15_4500.JPG
    276,1 KB · Aufrufe: 529
Zuletzt bearbeitet:
@t3chn0
Ich hätte einen grösseren Unterschied erwartet. :) Wie macht sich das System so in deinen "Problem"-Games?

btw. sind 48k iops nicht zu wenig für solch eine SSD? Meine alten 840er kommen so auf 80-90k. (Google bestätigt meine Annahme)
 
Zurück
Oben