Test AMD Ryzen 7 1800X, 1700X, 1700 im Test: König in Anwendungen, Prinz in Spielen

Allein schon wieder dieser Abschnitt ist zum umfallen. Bei BF1 ist bei Ryzen die 1080 Ti / Titan durchgängig voll ausgelastet. Es liegt ein GPU Limit vor, kein CPU Limit.

Das mag ja sein- Und natürlich hat der 7700K in einem Szenario wo auf unerfindliche Weise "CPU Leistung" im Nirvana verschwindet weniger Rechenkapaziät zur Verfügung.

Das steht nicht im Widerspruch zu meinen getätigten Aussagen/Analysen. Auf das Thema Battlefield Multiplayer im speziellen bin ich ja auch schon eingegangen.

@Aldaric87
Dem letzten Absatz entnehme ich, dass Du das ganze ein wenig zu persönlich nimmst.
Es geht ja auch nicht darum irgendjemanden von irgendwas überzeugen zu müssen. Es geht um den Austausch von den immer weiter eintrudelnden Erkenntnissen und der kritischen Auseinandersetzung damit.

Niemand will hier glaube ich irgendjemandem was Böses. Ich wäre jederzeit Feuer und Flamme mit Euch ein Bierchen oder einen Kaffee (für die nicht Alkoholiker) trinken zu gehen und uns auszutauschen. Dann wäre die Atmosphäre auch bestimmt nicht so aufgeheizt (von meiner Seite ist sie es nicht) und wir würden über vieles lachen...

Ist halt einfach das alte Foren- Problem. Man kennt sich nicht, sitzt sich nicht gegenüber. Dinge wie Ironie, Witze reissen und die Stimmung auflockern funktioniert nur seltendst...

Letztenendes haben wir aber doch alle das gleiche Hobby :)

Grüße
Zero
 
Zuletzt bearbeitet:
ZeroZerp schrieb:
Ist halt einfach das alte Foren- Problem. Man kennt sich nicht, sitzt sich nicht gegenüber. Dinge wie Ironie, Witze reissen und die Stimmung auflockern funktioniert nur seltendst...

Wie war die Aussage ist. :)
 
ich habe euch doch alle lieb:love: Darauf erstmal ein Bier :schluck:
 
Und schon wieder alle bisherigen erkenntnisse in den Wind geschossen...

nochmal die kurz-kurz-zusammenfassung:
Bacnhmark 7700@5GHz vs 1700@3.9GHz
https://www.computerbase.de/forum/attachments/2017-04-08-3-jpg.616858/

Jetzt hier bitte noch die gemittelten (11 Spiele DX11, 5 Spiele DX12) ~10% nVidia Treiber-"Bug" @AMD CPU mit nVidia GPU dazurechnen und was sehen wir dann ?
Zur Erinnerung


https://www.computerbase.de/forum/attachments/vergleich-jpg.616862/
Die 400MB VRAM-Cache sind nicht der Rede Wert gerade bei VRAM-Messung schwankt das gerne mal um 500-1000MB...

Außerdem selbst wenn der intel höhere Grafiksettings hätte - => Wäre das dann eher NÄHER am GPU-Limit und damit potentiell CPU entlastend ? => Trotzdem hat der 7800 auf ALLEN Threads fast 100%...der Ryzen 1700 aber nur ~70%.
 
Ein Problem sehe ich
Aktuell ist die Kombination 5820k (6800k 3960 4930) amd r5 1600 r7 1700 mit einer gtx1060 oder rx480 ideal für 1080p
Nun sicher könnte man die Leistung steigern durch den Einsatz einer gtx1080ti +40%
das blöde bei cpu limits ist aber das die CPu die gpu nicht befeuern kann bei mehr gpu Leistung.
Da hilft nur mehr Takt
Und ehrlich wir haben ein Takt Wall bei 4,4ghz hexa core 5ghz quadcore und in 1 Kern limit von 5,2ghz
Unter Wasser bei abnormalen Vcores bei intel bei amd ist schon bei 4ghz Schluss bei am4
Was heißt das
nun eine gtx1080ti würde bei meiner cpu 5820k und @stock Takt keine Mehrleistung in games resultieren.Sofern die gpu limit im Spiel nicht schon bei 1080p ist
Das erkennt man an 720p test was maximal geht an FPS bevor die cpu limitiert
relativ gesehen ist eine gtx1080 aktuell bei meiner cpu das maximum bei 3,6ghz cpu takt.
Setze ich die 10% schnellere gtx1080ti ein würde ich permament im cpu limit sein etwa 10%
Und müsste CPu OC
Was heißt das für zukünftige gpu gen bsp volta nvidia oder navi amd
Volta soll nochmal 30% dazu bekommen (angeblich laut Folie von nvidia real wird es wohl 15% sein)
navi etwas um die 20% (finger cross) gegenüber vega die erst ab mai juni 2017 kommen wird.
Und etwa gleichzieht mit gtx1080(ti)
addiere ich mal die zur gtx1080ti Leistung würde das etwa 60% mehr Leistung bedeuten als meine gpu gtx1060
Das sehe ich dann in etwa 2022 als gtx1460
Was bedeutet das nun um mehr fps in 1080p zu bekommen müsste ich die cpu auf das maximum von 4,4ghz prügeln
Das Problem ist schnellere CPu wird es nicht geben im Singlethread die Steigerung ist maximal im einstelligen Bereich.
Das meiste wird ramtakt bringen. Was auch seine Grenzen hat.
Also bleibt nur die pixel Anzahl zu erhöhen also downsampling oder 4k Ich als alter Konservative erst mal 1440p
Dolle Wurst.
Hoffnung dx12 nun das wird nicht passieren gründe sind die api ist auf amd hardware sheduler ausgelegt. natürlich kann nvidia das auch ändern wird aber so bald nicht passieren
Also nicht vor 2022 eher später
vulkan Schon möglich daraus mehr Performance zu bekommen wenn man das je Spiel anpasst an CPu Architektur aber besser als opengl als backup wird es nicht. Was passiert wen neuere cpu arch genutzt wird.
Das dx11 Ein Kern drawcalls limit ist eben CPu Takt limitiert je höher der Takt desto mehr bildpixelbefehle.
Nvidia löst das per software und kann die leistung einer cpu je kern verteilen amd tut das nicht was zu einen engpass im Ersten Kern führt das verschwindet bei dx12 bei amd aber mehr als Ein Kern Leistung ist kaum möglich und hängt vom CPu Takt ab.
Also ändert sich im Bezug auf mehr Leistung nichts mit DX12, vulkan.
Also was tun hoffen das die gpu Anforderungen ansteigen? wenig sinnvoll eher wird es stagnieren aufgrund der CPU und Konsolen
mehr Bildfilter kann man ist aber wenig Sinnvoll
höhere Auflösung sinnvollster weg. nur die Differenz zu 1440p und 4k ist gering
Fast nicht sichtbar und man braucht eine passenden Monitor und OS das mit der dpi klarkommt.
Software wird das extrem zickig.Standard ist 96dpi seit 1995
ideal bei 27 und 4k wäre 180dpi was in etwa doppelt so scharf wird weniger alaising nahezu bei 0,14mm pixel Abstand
Das ist quasi rund wirklich rund blöd nur das die Software das nicht skaliert
Also die ui ist das erste Problem solange es desktop Programme sind die auf visual basic basieren würde es noch gehen (sofern neu compiliert)
Java vergiss es
flash ebenso
hardcode vergiss es
in games wird es auch schwer weil die games in ihren engines das unterstützen müssen.
ansonsten hat man Mäusekino oder das Bild wird interpoliert.
Fazit 4k ist nice to have for TV am PC ist es unnütz
Also wird es irgendwann mal Sinnlos bessere GPu zu kaufen weil die CPu's limitieren
oder amd intel schaffen das unglaubliche mehr als 6ghz cpu Takt.
Das würde allerdings neues Trägermaterial bedeuten silizium ist am ende
Kleinere Strukturen geht auch nicht mehr so reale 32nm (7nm) ist das maximum was aktuell geht
Die derzeitigen cpu sind bei realen 40nm intel und bei allen anderen etwa 50-65nm.
Der Grund ist einfach das Silizium bei noch feineren abständen zu dünn wird. und dann nicht mehr trennt zwischen den Transistor. Grundlage unserer Technik
Der Marketing Name 16nm oder intels 14nm wird nur dadurch realisiert weil man von planar zu 3D wechselt
Was nichts anderes ist das mehrere ebene genutzt werden um höheren Takt zu erreichen.Platzsparen geht nicht mehr seit 22nm
Ein Nanometer ist im übrigen 0,000 001mm ein Haar hat 0,000 600mm
Also wir sind schon knapp an atom ebene 0,000 000 100mm ~100piko meter oder anders gesagt 0,1nm
Die große Frage ist also welches Material kann man in realen 20nm abständen Transistoren erstellen bis zu ebene von 10nm
Alles was kleiner ist ist real ohne atomar ein Material künstlich zu erschaffen nicht möglich und ich meine das per druck
Ab einen bestimmten Norm ist man auch elektrisch Limitiert.
ich glaube nicht daran das ein atomar gebauten Transistor noch Elektrizität real die Spannung trennt von an aus.
da hindert einen die Unschärfe wo denn die positronen und elektronen sind.
Also wie dann mehr CPU Leistung erreichen. aktuell geht das nur durch mehr Takt bei weniger Spannung. Aber irgendwann muss man weg von 1 Kern limit bei den api.
Die CPu Leistung (~4ghz) bei 1080p ist mit einer gtx1080 am limit
Die Grafikdarstellung bei 1080p ist am limit der Auflösung besser wird es nicht mehr weil physisch kein besseres Bild möglich ist. Da hilft nur mehr pixel auf 4K
Erstes bsp dazu ist "for honor" 4k Texturen und das sieht man. Ein Spiel das selbstständig downsampling mitbringt. Das sieht man besonders an der Umgebung
Die Spielfiguren sind deutlich niedriger aufgelöst ~720p in etwa
Das ist ein Zugeständnis an die Performance
So schnell sind die gpu noch nicht um 4k KI Gegnerfiguren zu bewegen. Spiele kommen langsam an die native Auflösung 1080p heran bei characterfiguren und Gesichtern.
Und dafür reicht die gpu Leistung aus. aber wehe die cpu kann nicht mehr pixel befehle liefern und genau da ist das Problem
Was nützt es wenn die gpu fast realitätsnahe games darstellen können wenn die cpu einfach die benötigten bildpixel befehle nicht liefern kann.
Also wenn höhere Auflösung sieht man mehr vom Bildausschnitt des Spiels was ui Probleme bringt oder man sieht bessere Tapete und alles was sich bewegt ist schlecht aufgelöst.Dann lieber 1080p und beides besser aufgelöst.
Und bei 1440p dann einfach mehr Bildausschnitt.
4K ist somit überflüssig.Wird es denn nach nvidia volta noch schnellere GPu geben ich sage ja aber nicht mehr in dx11 dx12
Da muss was neues her. Oder wir bekommen doch die 10GHz CPU
 
@Iscaran
Was haben Deine Aussagen mit meinem Post und dem Link zum Testvideo mit 16 Spielen zu tun?
Das Video zeigt, dass der 1700er Ryzen auf 4GHz mit abgeschaltenem SMT ähnliche Lastzustände aufzeigt wie ein auf 4GHz untertakteter 6700K,
https://www.youtube.com/watch?v=qPr6pp4WWfc

Das ist eine neue Info und ist genauso wie alle anderen neuen Infos zu untersuchen,

Das ändert die Lage dahingehend, als dass man ja davon ausgehen sollte, dass die 8 physischen Ryzen- Kerne sich bei den Spielen "langweilen" würden, dies aber nicht der Fall zu sein scheint.

Der Eindruck des Langweilens entsteht nur durch ein anscheinend nicht sehr wirkungsvolles SMT, welches die Gesamlast der Anzeige beim Benchmark durch zwei teilt. Und das obwohl es WENIGER Leistung in Spielen bringt.

Das wäre also dann die nächste Baustelle an der AMD arbeiten müsste. Sonst bleibt von den hier viel gerühmten Reserven gegenüber der Intel 4-Kern Prozessoren+HT so gut wie nichts übrig...

Vielleicht ist es aber auch nur der Beweis, dass im Allgemeinen bei den Spielen keine sinnvolle Skalierung auf 16 Threads zustande kommt. Dass der Vewaltungsaufwand und das Warten auf die unterschiedlichen Threads zur Vervollständigung eines Frames einfach nicht mehr sinnvoll hinzukriegen sind.

Fogende Bilder der ersten zwei wahllos von Euch geposteten SMT Off/On Vergleichsvideos illustrieren das:

youtube1.JPG
youtube2.JPG
youtube3.JPG
youtube4.JPG
youtube5.JPG
youtube6.JPG
youtube7.JPG
youtube8.JPG

In den SMT On/Off Vergleichsvideos ist der 1700er trotz 8 Cores bei Mafia 3 genauso streckenweise bis zu 100% ausgelastet wie z.B. der 7700K.

Was der Ryzen ohne SMT besser macht ist die erhöhte Auslastung des Prozessors auch tatsächlich in FPS umzuwandeln. Er macht also ganau das was ich für gut und effizient befinde, was von einigen Mitdiskutanten hier als Quere Logik verstanden wird.

Grüße
Zero
 
Zuletzt bearbeitet:
@Sharangir
Vielleicht solltest Du vom Thread fernbleiben, wenn Du nichts beitragen willst.
Hast Du Dir meine Ausführungen angeschaut und die Fotos, die aus Euren Videos stammen?
Offenbar hast Du es nicht verstanden?

XXXvergleich wovon? Ich vergleiche hier Ryzen SMT On vs Off und die vermeintlichen Reserven, die sich dadurch (vieleicht irrtümlicher Weise) darstellen...

Ich vergleiche also Eure XXXänze untereinander und das dadurch zwangsläufig mit dem gleichen Meterstab, wenn Du es so ausdrücken willst...

Grüße
Zero
 
Zuletzt bearbeitet:
ZeroZerp schrieb:
Der Eindruck des Langweilens entsteht nur durch ein nicht sauber funktionierendes SMT, welches die Gesamlast der Anzeige beim Benchmark durch zwei teilt. Und das obwohl es WENIGER Leistung in Spielen bringt.

Das wäre also dann die nächste Baustelle an der AMD arbeiten müsste. Sonst bleibt von den hier viel gerühmten Reserven gegenüber der Intel 4-Kern Prozessoren so gut wie nichts übrig...

Vielleicht ist es aber auch nur der Beweis...

Zero, ich muss Dir mal sagen, dass der unbestechlich analytisch wissenschaftlich objektive Anstrich den Du Dir hier selbst verpasst einfach nur albern ist. Wie fast alle die hier nach bald 4000 Beitraegen immernoch 'diskutieren' versuchst auch Du nur Deine eigene Sicht der Welt zu untermauern.

Das hat bei Dir ja offensichtlich nicht nur System sondern auch Tradition wenn ich in deinen alten Beitraegen stoeber.

ZeroZerp schrieb:
@Grimsdottîr
Da muss ich Seppuku Recht geben. Vieles ist bezüglich der Klimaerwärmung noch unklar, aber dass die anthropognenen CO2-Emissionen einen erheblichen Anteil an der Klimaerwärmung haben, wird von keinem verünftigen Wissenschaftler mehr in Frage gestellt.

Das stimmt doch garnicht! Das wird nur von der Politik so dargestellt, dass das völlig klar sei...
Es gibt diesbezüglich viele Gegenstimmen, von ebenso "anerkannten" Wissenschaftlern, die monieren, dass der Mensch halt immer nen Sündenbock braucht. (in diesem Falle CO2).

Du hast in Deiner Sig nen schoenes Sys. Genies es doch einfach... Wenn Du irgendwelche Zweifel an der Leistungsfaehigkeit eines 8C16T Ryzen Sys hast dann benchen wir das einfach aus. Aber hoer doch auf so zu tun als ob das in irgendeiner Form eine rationale Annahme und Tatsache waere. Zumal sowieso voellig durchsichtig ist das Du Deine Meinung mit dem Release des naechsten Intel 10C/20T @ 4GHz revidieren wirst.

Geniest den Sonntag Leute!

Ned
 
Zuletzt bearbeitet:
@Ned Flanders
Was hat Deine Aussage jetzt mit dem Thema zu tun?
Wieso schreibst Du, wenn Du nichts beitragen willst?
Was ist an meiner Feststellung nicht stichhaltig?

Und ja- Ich versuche im Gegensatz zu vielen hier tatsächlich meine Ansichten zu unterfüttern.
Sollten sich vielleicht mal andere eine Scheibe davon abschneiden...

Auch zu meinem Zitat, welches völlig aus dem Zusammenhang gerissen aus irgendeinem uralt- Thread stammt... Was hat das hier zu suchen?
Ist es inzwischen nicht unbestritten, dass Methan und Wasserdampf einen erheblich höheren Einfluss auf die Erderwärmung haben und dass das Lösen tatsächlich signifikanter Mengen von CO2 aus den Böden und Meeresschichten hauptsächlich eine Folge der Erderwärmung ist? Hier ist die Forschung inzwischen ja ein gutes Stück weiter gekommen...

Was ist das hier überhaupt für ein Diskussionsstil?
Leider festigt das meine Annahme, dass hier überhaupt niemand an einer ernsthaften Diskussion interssiert ist. Gerade wenn man die letzten Kommentare hier liest, die nur auf Diskreditierung und haltlosen überhaupt nicht sachbezogenen Unterstellungen basieren.

Ist wohl hier doch kein Technikforum...
Habe den Wink mit den 5 Zaunpfählen auch verstanden und lasse die Ryzen Threads zum Seelenfrieden aller mal ruhen.

Ned hat recht.. Geniesst den schönen Sonntag :)


Grüße
Zero
 
Zuletzt bearbeitet:
Dir is klar das ein GPU Limit besteht egal ob SMT an oder aus ist. Wie sollen sich da die fps verändern? Das ja total gefailt ;D
 
ZeroZerp schrieb:
Ist wohl hier doch kein Technikforum...

In erster Linie ist das hier ein Thread um gegen AMD oder Intel zu bashen, recht viel mehr ist die letzten paar Tage hier nicht mehr passiert.


Diese ganzen "Profis" die irgendwelche Videos auf Youtube hochladen und daraus irgendwas herleiten haben sowieso keine Aussagekraft, ich glaube hier nur "richtigen" Plattformen wie CB, Luxx etc oder mir selbst wenn ich es selbst getestet habe.
Wartet doch einfach noch 2 Tage, dann wissen wir ob und falls ja um wie viel sich Ryzen in den letzten Wochen durch Updates etc verbessert hat und wie er gegen den 7700k dasteht.
Die zwei Tage wird ja wohl jeder noch abwarten können ohne hier nutzlos aufeinander rumzuhacken.
Ich warte noch bis das X370 Professional Gaming sich im Preis angepasst hat und werde dann selbst testen wie sich ein R7 1700 auf 3,8-4 GHz gegen einen 2600k auf 4,4-5 GHz schlägt, auch in Games.
 
@immortuos

bei mir ist es eher andersrum , die you tuber leben nicht davon , haben meist noch einen seperaten Job , klar gibt s ein bisschen dafür , aber auch erst ab 10.000 ? klicks .

Bei PCGH bzw CB oder welche Zeitschrift auch immer , diese Leben von Werbeanzeigen und die höhe der Auflage der Zeitschrift.

Somit sind sie im Grunde " käuflich " im direkten wie indirektem Sinne , nicht das man unbedingt an den Daten manipulieren muss , es reicht wenn man sie entweder auf die eine oder andere Weise interpretiert .
Ich bin mir sicher das da einiges unter der Hand geregelt wird nach dem Motto : Wenn wir bei eurem Review gut wegkommen , bzw ihr unser Produkt in euren Test mit einbezieht , schalten wir Werbeanzeigen im Wert von XXXXX Euro , wie auch immer das ausgedrückt oder formuliert sein mag .

Keine Zeitschrift kann es sich leisten ihre Leserschaft zu verprellen , oder ihre Werbeträger zu verlieren , im Grunde ist es ein Eiertanz .... - immer wieder ..

Im Grunde wissen wir doch alle wer die wesentlich größere Portokasse hat und wer schon in der Vergangenheit nicht grade zimperlich war ....
 
Also zusammenfassend und abschliessend können wir sagen, dass Ryzen das deutlich bessere P/L-Verhältnis bietet, weil Spiele unter Normalbedingungen absolut einwandfrei laufen und zukünftuge, auf Multicore optimierte games nur noch besser laufen werden, und weil er in Anwendungen massiv besser ist.

So viel war ja schon von Beginn weg klar und, wie von vielen "fanboys" erwartet, folgten stetige News zu weiteren Leistungssteigerungen durch diverse kleinere und grössere Anpassungen.


Können wir das leidige Hin und Her bitte endlich beenden?
Keiner wird dadyrch schneller oder besser oder länger..
 
Ja aber wer ist glaubwürdiger? Bei YT kann jeder alles zeigen und erzählen, da muss man stark differenzieren und alles kritisch beäugen. Zeitschriften sind etablierte Magazine wo ich mal unterstelle, dass diejenigen dort einfach Ihren Job machen und dafür bezahlt werden und Enthusiasten sind genau wie hier im Forum wir.

Grade jetzt wo das Thema Fakenews doch in aller Munde ist und man eben nicht alles glauben darf was irgendwo gepostet wird, sollte man bei dem was man liest oder sieht immer misstrauisch bleiben. Es ist nicht einfach, aber es ist unabdinglich. Man sieht doch wozu das führt in dem Thread. Es gibt einen Faktenstand der bei einer Zeitschrift und anderen Magazinen getestet wird und dann fängt jeder an aus YouTube Videos davon abweichende "Erkenntnisse" vorzulegen weil die Ergebnisse den eigenen Vorstellungen entsprechen.

Fakt ist:
Intel hat eine bessere IPC als AMD. Intel profitiert von schnellem RAM genauso wie es offenbar AMD tut, was keinen verwundern sollte da es keinen Grund gibt, gegenteiliges zu erwarten. Ryzen hat eine Plattform hervorgebracht, die auf Augenhöhe mit Intel liegt, aber designtechnisch Schwächen hat, sonst würde hier nicht so hitzig diskutiert. Ryzen ist dafür aber auch sehr günstig, wenn man schaut, dass man für das Geld 8 vollwertige Kerne bekommt. Ryzen kann aber nicht immer diese theoretische Mehrleistung auch in FPS umsetzen in Spielen. Fakt ist, dass ein Intel 4 Kerner in Spielen in den meisten Fällen noch immer schneller ist als der 8 Kerner von AMD. Was kann man also daraus schließen? ZeroZerp hat es genau so ich es finde, korrekt benannt. Es zählt eben immer was nachher am Ende rauskommt. Und solange ein 8 Kerner da nicht durch die Bank eklatant schneller ist, ist eine Diskussion ob man 8 Kerne nehmen sollte bei Spielen, derzeit zu verneinen, da selbst bei Spielen wo wir wissen, dass mehr als 8 oder 16 Threads genutzt werden können, kein Vorteil zu erkennen ist. Dann gibt es einzelne Ausnahmen wir Battlefield 1, was immer wieder in den Vordergrund gebracht wird - es bleibt aber eben nahezu eine Ausnahme. Daraus muss jeder seine Schlüsse ziehen.

Wenn man 8 Kerne wirklich braucht, führt an Ryzen wohl wirklich derzeit kein Weg vorbei.
 
ich würde da ganz klar sagen wenn ich NUR Game .. klar dann nehm ich den I7 oder halt nen Ryzen 6 Core. Wobei da auch wieder die frage is. Zock ich auf 4K dann würd ich eher den 6 kerner nehmen und auf theoretische 5fps mehr pfeifen. Wenn ich natürlich 144hz Monitore am start habe halt einen Intel so hcoh wie möglich takten.
 
@imaginez

deine " designtechnische Schwäche " ist nichts anderes als die Tatsache das man bisher auf max 4 Kerne optimiert hat und Muticoreprogrammierung aufwendiger ist .... , und falls du jetzt auf CCX raus wolltest - das hat man doch schon getestet 4 + 0 ist nicht signifikant besser als 2+2 CCX Kerne

Der 25 % leistungsvorsprung des 7700 pro Kern ist zu 95 % auf den höheren Takt zurückzuführen

soweit sind wir uns einig , glaub ich

Mein Ryzen hat mehr als genug Power um meine RX 480 auszulasten, ein GPU Limit ist sehr viel wahrscheinlicher als nen CPU Limit , vermutlich hat der Ryzen auch noch für die nachfolgende Graka Generation genug Rechenpower , so das die Graka nicht auf die CPU warten muss . Wird vermutlich nen Vega Ableger in 2-3 Jahren .

Warum ich mir nicht jetzt schon ne 1080 / 1080 TI hole ? weil ich sie nicht wirklich brauche ...
1700X = 399,- + Asus 350+ = 104,- + 16 GB DDR4 3200 = 125,- , zusammen 628 Euro , recht grade für ne etwas bessere 1080 .... derzeit

die Rechenpower der heutigen 1080TI wird in 2-3 Jahren zwischen 300 - 400 Euro zu haben sein , schon Vega wird für einen spürbaren Preisverfall führen , je nachdem was sie bringt - entweder der 1080 Ti oder 1080 das wasser abgraben , und die abgespeckten Vega Modelle werden nach unten weiteren Preisdruck ausüben .
 
https://tools.ietf.org/html/rfc8140

Code:
   The chief weapons of a Troll are its sharp tongue, its blunt
   phrasing, and its total disregard for doing useful work.

                                            .:\::::/:.
                +-------------------+      .:\:\::/:/:.
                |   PLEASE DO NOT   |     :.:\:\::/:/:.:
                |  FEED THE TROLLS  |    :=.`  -  -  '.=:
                |                   |    `=(\  0  0  /)='
                |  Thank you,       |       (  (__)  )
                |   The Management  |     .--`-vvvv-'--
                +-------------------+     |            |
                         | |             /  /(      )\  \
                         | |            /  / (  /\  ) \  \
                         | |           (  | /  /  \  \ |  )
                         | |            ^^ (  (    )  ) ^^
                         | |              __\  \  /  /__
                         | |            `(______||______)'
                 ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~

                    Figure 1: The Troll at Feeding Time
 
By the way.. das schon gelesen?

http://www.planet3dnow.de/cms/30520...-taktskalierung-die-suche-nach-dem-sweetspot/

Zitat 3dCenter, wo der Artikel verlinkt war:
"Ein anderer Artikelabschnitt beschäftigt sich mit der Energieeffizienz bei steigenden Taktraten – und bringt dazu eine sehr aussagekräftige Grafik mit. Laut jener befindet sich Ryzen 7 bis zu 3.6 GHz Takt noch im (nahezu) Energieeffizienz-Sweetspot, selbst bis zu 3.8 GHz Takt verläuft der zusätzliche Stromverbrauch gegenüber der Taktraten- und Performancesteigerung noch in einem sehr vernünftigen Rahmen – und erst danach steigt der Stromverbrauch pro Mehrtakt unverhältnismäßig stark an. Damit ist klar, daß Ryzen 7 derzeit auch aus Gründen der Energieeffizienz kein Prozessor für Taktraten von über 4 GHz ist. Selbst wenn mit zukünftigen Ryzen-Ausbaustufen die aktuell geltende Overclocking-Mauer bei ca. 4.1 GHz also noch fallen oder sich verschieben sollte, bleibt das Problem der oberhalb von 3.8 GHz stark zunehmenden Leistungsaufnahme bestehen. Angesichts der zu sehenden Kurve dürfte ein Ryzen 7 1800X bei 4.1 GHz dann schon 200 Watt (nur für den Prozessor) ziehen, bei 4.3 GHz dürften grob 250 Watt erreicht sein. Zumindest für Normalanwender wäre dies sicherlich keine Übertaktung, die man im Dauerbetrieb fährt – künftige Ryzen-Ausbaustufen müssen sich also auch dieses Problems annehmen, wenn AMD eines Tages mehr Takt bei Ryzen anbieten will."

Das finde ich schon ziemlich heftig. :freak:

"Verrechnen wir die Werte und betrachten die Effizienz des Prozessors, so sind vor allem die Frequenzen unter 3,4 GHz sehr effizient und anschließend bis 3,6 GHz sehr stabil. Danach geht es deutlich erkennbar bergab. Die 3,6 GHz als Basistaktrate des Ryzen 7 1800X sind daher nicht von ungefähr gewählt worden."

Neue Einsicht warum AMD hier diese Taktraten gewählt hat. Offenbar nicht ohne Grund.
 
Die müssen doch nicht mehr Takt haben. Wenn sie die IPC jetzt mit der nächsten stufe nochmal um 10-15% steigern reichen 4Ghz doch total aus.
 
@imaginez
Bitte nicht Äpfel mit Birnen vergleichen...
Schauen wir Mal, was denn ein Intel 8Kerner schluckt (10sek Google Suche):
http://www.legitreviews.com/intel-core-i7-6900k-processor-review_191040/9

At idle the Intel Core i7-6900K Broadwell-E platform used 101W at idle and that is impressive as includes the ASUS X99 motherboard, NVIDIA GeForce GTX 1080 FE video card, Crucial MX300 1050GB SSD and the Corsair H105 water cooler. The processor topped out at 204W in Handbrake and 332W when playing Thief at 1080P.

(Was sagt uns das? Jeder misst, was er so will...)
 
Zuletzt bearbeitet:
Zurück
Oben