News Wochenrückblick: Eine AMD-Grafikkarte und alle drehen am Rad

R00tMaster schrieb:
Nvidia baut Mist:

Was, das gibt es nicht! Unglaublich! Buh, pfui, nie wieder Nvida!

AMD baut Mist:

Geil! Super! Juhu, Bravo, ist alles nicht so schlimm und alles richtig gemacht!

Nvidia hat den Kunden sogar Versucht den Krüppelspeicher als Feature zu verkaufen, nachdem es im Nachhinein durch Tests bekannt geworden ist.

AMD hat den Fehler mit der Spannungsversorgung nach den ersten Tests sofort untersucht und wird voraussichtlich das Probem mit einem Treiberupdate fixen. Ich würde da auch differenzieren. Im Gegensatz zu Nvidia würde ich hier auch nicht von bewusster Täuschung reden.
 
Chillaholic schrieb:
Nvidia hat den Kunden sogar Versucht den Krüppelspeicher als Feature zu verkaufen, nachdem es im Nachhinein durch Tests bekannt geworden ist

In einem letzten (wahrscheinlich vergeblichen) Versuch das "Feature" zu erklären, poste ich nochmal worum es dabei ging.

Das bezeichnete "Feature" besteht NICHT darin, dass man 3,5 statt 4 GB nutzen kann. Es besteht darin, dass man 3,5 statt 3 GB nutzen kann. Dies hat seine Ursache darin, dass Maxwell eine andere interne Konfiguration hat als Kepler sie hatte und anders beschnitten werden kann. Kepler hätte man nur so beschneiden können, dass 3 GB nutzbar sind und Maxwell so, dass 3,5 GB schnell nutzbar sind und 0,5GB langsam.

Dies so zu kommunizieren wurde von nVidia versäumt.
 
Moriendor schrieb:
Eines sei aber noch gesagt. Ich bedauere den Fall von 3Dfx auch. Ich war lange Jahre glücklicher Besitzer einer Monster 3D und von zunächst einer und später 2x Voodoo 2 im SLI.
Ich auch! Ach, was für Erinnerungen! Need for Speed 2 SE absolut flüssig in traumhaften 1024x800 - damals ein echter Knaller.

Wenn ich mich recht erinner, haben sich die beiden Voodoo2-Karten im Verbund bei den Bildzeilen abgewechselt, was ganz hervorragend funktioniert hat. Eigentlich lustig, daß heutige CF- und SLI-Verbünde durch die Konzentration auf "1 Bild pro Karte" sich neue Probleme ins Haus geholt haben.

OT:

Ich bin total froh, daß die neue 480er eine brauchbare Alternative geworden ist. Absolut gesehen mag sie leistungsmäßig nicht in der Oberklasse mitspielen, aber das war wohl auch nicht die Zielvorgabe.

Ihr fehlt vielleicht auch etwas entwicklungstechnischer Feinschliff aber AMD hat mit den verfügbaren Resourcen (die wesentlich begrenzter sind als bei NVidia) ein konkurrenzfähiges Modell für die Mittelklasse auf die Beine gestellt. Und damit ist man einen ganzen Schritt weiter als zuvor. Glaubt man den Zahlen von Mindfactory, gehen von der 480er auch nennenswerte Stückzahlen über die Theke, und das bei derzeit noch über der UVP liegenden Verkaufspreisen.

Wenn in ein paar Wochen die Partnerkarten verfügbar sind und sich die Preise für die 8GB-Version bei echten 250 Euro einpendeln, werde ich diesen Kampfgeist auch unterstützuen und eine 480er im Spielerechner der Kinder verbauen. Hier sind weder 5% Leistung noch 5 Watt Verbrauch mehr oder weniger von Belang. Und wir BRAUCHEN dringend etwas Konkurrenz und etwas Preiskampf in diesem Segment!
 
DocWindows schrieb:
In einem letzten (wahrscheinlich vergeblichen) Versuch das "Feature" zu erklären, poste ich nochmal worum es dabei ging.

Das bezeichnete "Feature" besteht NICHT darin, dass man 3,5 statt 4 GB nutzen kann. Es besteht darin, dass man 3,5 statt 3 GB nutzen kann. Dies hat seine Ursache darin, dass Maxwell eine andere interne Konfiguration hat als Kepler sie hatte und anders beschnitten werden kann. Kepler hätte man nur so beschneiden können, dass 3 GB nutzbar sind und Maxwell so, dass 3,5 GB schnell nutzbar sind und 0,5GB langsam.

Dies so zu kommunizieren wurde von nVidia versäumt.

Dass ist ja alles schön und gut trotzdem ist es Kunden verarsche und nichts anderes wollte ja damals auch eine gtx970 kaufen aber dann habe ich es gelesen und in eine neue SSD investiert und jetzt warte ich noch biss 1060/50gtx und die RX480/470 raus ist mit dem costums und dann sehen wir was es wird.

Ich finde ja dass sollte man niemals schnell und vor test entscheiden was man kauft und natürlich wo für man sie braucht und wie viel man ausgeben möchte. Bei mir 150-200€ und nicht mehr punkt.
 
@DocWindows
Im Nachhinein ist natürlich gut rausgekommen "warum" das mit den 3,5gb gemacht wurde. Und ja es wurde von nvidia "versäumt" dies zu erwähnen. Allerdings steht auch heute noch auf der offiziellen nvidia Seite ganz einfach "4gb Speicher". Nichts von 3,5+0,5 oder anderes....

Ich denke bis heute ist dies nicht die "feine" Art, seine Grafikkarte an den Mann zu bringen. Uninformierte Leute wissen also vielleicht trotz Medienrummel nichts von diesem Problem. Auch wenn es teilweise nicht in Erscheinung tritt bei Spielen.

Die RX480 hat auch das Stromproblem, welches vielleicht bei den Costumkarten korrigiert werden kann. Das ganze per Treiber anzusprechen stelle ich mir sehr schwierig vor, da andere Seiten bereits eine ganz gute "Einschätzung" des vebrauchten Stroms pro Bauteil vorgenommen haben. Aber ich lasse mich da gerne eines besseren von AMD belehren.

Nichts desto trotz sollte mit oder auch ohne Undervolting die Graka keinen Schaden an neueren Boards verursachen.
 
@DocWindows
Danke für die Erklärung, wusste ich noch nicht.
Ist dann aber eher ein Designfehler in der GPU, wenn man den maximalen Speicher mit beschneidet, oder?

Dies so zu kommunizieren wurde von nVidia versäumt.
Offenbar. ;)
 
Chillaholic schrieb:
Ist dann aber eher ein Designfehler in der GPU, wenn man den maximalen Speicher mit beschneidet, oder?

So wie ich das verstanden habe ist es einfach eine neue Möglichkeit des Beschneidens die Maxwell hat. Natürlich begründet im Chip-Design, aber nicht unbedingt ein Designfehler. Während man sich bei Kepler entscheiden musst ob man entweder einen ganzen Block wegschneidet oder eben gar nichts, kann man bei Maxwell auch nur einen Teil wegschneiden. Das resultiert dann auch nicht automatisch in weniger Speicher (die 4GB sind ja nutzbar), sondern in einer langsameren Anbindung von den letzten 500MB.

Mir gings auch nur darum nochmal zu erwähnen, dass es eben nicht der langsame Speicher ist der als "Feature" von nVidia verkauft wurde, sondern die Möglichkeit der Teilbeschneidung und den 500MB mehr schnellen Speicher die man dadurch verfügbar gemacht hat (3,5 statt 3GB).

bugmum schrieb:
Im Nachhinein ist natürlich gut rausgekommen "warum" das mit den 3,5gb gemacht wurde. Und ja es wurde von nvidia "versäumt" dies zu erwähnen. Allerdings steht auch heute noch auf der offiziellen nvidia Seite ganz einfach "4gb Speicher". Nichts von 3,5+0,5 oder anderes....

Die Daten die dort in den technischen Daten stehen, sind ja auch die technischen Daten. 4GB sind verbaut, Die Speicherschnittstelle ist 256 Bit breit und die maximale(!) Bandbreite beträgt 224GB/sek.
Aber über die Frage ob man die Auswirkungen des Beschnitts im Datenblatt erwähnen muss, wurde ja schon genug diskutiert. Wie gesagt: Ich wollte bloß nochmal erwähnen was das "Feature" eigentlich ist.
Kaufinteressenten fanden und finden im Preisvergleich (ich weiß es von Geizhals.de) bei jeder 970 GTX übrigens den fettgedruckten Hinweis, dass nur 3,5GB schnell angebunden sind. Dort dürften sich ja sehr sehr viele Kaufinteressenten informieren.
 
Zuletzt bearbeitet:
KTelwood schrieb:
http://www.pcgameshardware.de/AMD-P...ews/Radeon-RX-480-Crossfire-GTX-1080-1200543/

https://www.techpowerup.com/reviews/AMD/RX_480_CrossFire/21.html


AMD RX480 Crossfire skaliert nicht auf UHD, ist in 10/16 Spielen Langsamer als EINE GTX 1070.
Also alles so wie erwartet.

Ehm in dem Text Steht auch ORIGINAL: "Von 16 getesteten Spielen nutzen immerhin zehn gar kein Multi-GPU aus,..."
Von daher ist auch klar warum dann 10/16 Spielen mit einer zweiten RX480 nicht schneller als eine GTX1070 sind.....

Davon abgesehen bin ich kein Crossfire/SLI Fan.
 
bugmum schrieb:
Ehm in dem Text Steht auch ORIGINAL: "Von 16 getesteten Spielen nutzen immerhin zehn gar kein Multi-GPU aus,..."
Von daher ist auch klar warum dann 10/16 Spielen mit einer zweiten RX480 nicht schneller als eine GTX1070 sind.....

Dort wurde wenigstens kein Cherry-Picking gemacht, und nicht nur Games genommen wo 2 RX 480 besser abschneiden als eine GTX 1070, die das Leisungsverhältnis dann verfälschen.

Es unterstützen nunmal nicht alle Games CF, und diese sollte man in einem Test auch mit einbeziehen. Sonst denken einige, das 2 RX 480 immer schneller sind als eine GTX 1070.
 
Zuletzt bearbeitet:
Das ist doch bei Techpowerup sehr schön gelöst, indem dort zum einen die Leistungsmittlung über alle Spiele aber auch nur von Spielen mit gutem CF Support genommen wird.
Bei FHD hat man dann:
RX-480: 100%
RX-480 CF alle Spiele: 139%
GTX 1070: 150%
RX-480 nur CF "taugliche" Spiele: 165%

Somit kann sich jeder selbst eine ordentliche Meinung bilden, ob für die für ihn relevanten Spiele, sich ein CF lohnen kann oder nicht.
 
Als AMD das erste mal veröffentlicht hat, das 2 RX 480 genauso schnell sind wie eine GTX 1080, haben hier auf CB doch schon einige am Rad gedreht.
Das dieses Scenario aber nur auf wenige Games zutreffen wird, wurde dabei aber immer gerne "übersehen/vergessen".
 
Ist ja auch kein Crossfire gewesen, sondern Multi-GPU auf Basis von DX12 was offenbar bedeutend besser skaliert. Crossfire oder Sli kommt für mich eh nicht in Frage, Dual GPU frühestens wenn DX12 Standard ist und die Programmierer das in fast allen Spielen implementiert haben.
 
Mich hat der Dual-RX480 vs GTX1080 Vergleich kein Stück aus der Reserve gelockt. Erstens ist ein Dual-GPU-System uninteressant für mich (viel mehr als 300 werde ich nicht für die Grafik ausgeben), zweitens halte ich ein Dual-GPU-System mit Mittelklasse-Karten für nicht Sinnvoll. Warum Zwei RX480 wenn in Kürze Vega kommt, die dann mit gleicher Leistung bestimmt nicht den preislichen Rahmen von zwei RX480 sprengen werden.
Ich warte jetzt auf die Custom-Modelle der RX480 und hoffentlich bis dahin auch schon Tests und Preise der Rev GTX1060. Wird aber höchstwahrscheinlich sowieso die RX. (Sympathie-Bonus)
 
Schon gehört die ersten RX480 4GB haben in Wahrheit genauso die schnelleren vollen 8GB wenn ich dass mal nicht interessant finde.
 
Es ist nicht unwahrscheinlich, dass der "auf 8GB flashen" nur bei einem bestimmten Batch der ersten Ref-Serie funktioniert.
Ganz einfach weil dann via Firmware der Bedarf bei der Auslieferung angepasst wird.
Glaub kaum, dass "für immer" 4GB unnützer Speiecher aufgelötet wird.
 
Glaube ich auch kaum aber trotzdem für die Käufer der ersten Stunde nettes zu Brot. Erinnert mich an damals mit meiner 6800Le zu Gt Mod und meinen zwei Kern x4 550 PII. Naja lieber mehr Speicher als zuwenig 😏
 
Schon gehört das die GTX1000er gar nicht Vive fähig sein sollen bzw. nur bedingt, da es wohl Probleme mit den Anschlüssen gibt. Wohl wieder nen Pluspunkt für die AMD
 
Zuletzt bearbeitet:
Nee ist neu wäre aber mit sicherheit ein negativ Punkt für manche naja für mich nicht ich brauche kein VR.
 
Wenn sich VR durchsetzt, dann braucht man definitiv ne "4k-Karte" mit 60FPS. Sonst wird einem ja schlecht. Zudem kann man auch einfach irgend eine andere Grafikkarte dazustecken und das Bidl da ausgeben lassen :rolleyes:

Drüber hinaus...VR ist viel zu teuer und es gibt bis auf Kirmesspiele keinen Content. Man kann seine Tastatur nicht mehr sehen....und ob Spiel XY Motionsickness auslöst weiß man nur, wenn mans ausprobiert.
Dann lieber 600€ in einen neuen Monitor stecken.
 
Zurück
Oben