News AMD: Radeon RX 480 mit 36 CUs kommt am 29. Juni für 199$

BlauX schrieb:
Du hast noch vergessen zu erwähnen das die Steckdosen Messungen genauso Banane sind, um den Verbrauch der GPU zu bestimmen.

Alle Messungen die so gemacht wurden und werden sind nun mal nicht Praxis orientiert. Sondern nur Moment bezogen.

Ganz klar, der Stromzähler ist zur reinen GPU Messung nicht zu gebrauchen. Das schrieb ich aber sehr wohl, nur nicht im letzten Post. Da wird mir wieder klar, wie überflüssig es ist, hier ein wenig Aufklärung zu betreiben. Sobald ein Post aus dem Blickfeld gescrollt wird, ist der Inhalt vergessen. Es ist aber schön zu lesen, daß mal jemand anderes hier "Verbrauch" mit kWh in Zusmmenhang bringt.

Was aber immernoch nicht rüberkommt ist, das diese maximale Leistungsaufnahme bei einer Benchmarksequenz eben NICHT für den gesamten Verlauf eines Spielelevels auftritt. Rennst Du bei TR durch eine dunkle Höhle, parkst bei BF irgendwo um zu snipern etc treten diese Lastspitzen eben nicht auf und senkt die durchschnittliche Leistungsaufnahme.

Mir geht es primär nicht um irgendwelche genauen Verbrauchswerte, sondern daß nahezu immer diese maximale, selbst Igors ermittelte durchschnittliche Leistungsaufnahme quasi nicht als W sonder direkt in Wh und Kosten umgerechnet werden.
Das fand ich bei Thermi-Fermi schon saublöd.

Vllt so: Eine Spielstunde verbraucht weniger Strom als eine Stunde Benchmark, weil eben die maximale Leistungsaufnahme weniger häufig erreicht wird.
Ergänzung ()

oldmanhunting schrieb:
Jahrelang wurde uns hier im Forum von Leuten die AMD GPU's nutzen gepredigt, dass der Stromverbrauch vollkommen egal ist und keine Geige spielt und jetzt fangt Ihr untereinander an Euch wegen ein paar Watt mehr oder weniger die Köpfe einzuschlagen? Einfach lächerlich so etwas!

Dann hast Du garnicht verstanden worum es eigentlich geht und sich hier keiner deswegen streitet.
Zudem waren es eher die aus dem grünen Lager, die wegen des lächerlichen Mehrverbrauchs der roten Karten ein Fass aufgemacht haben. Atomkraftwerk, Heizung, bla

Und genau bei solchen Dingen, wenn man was negatives über AMD schreiben kann, bist Du doch immer voll dabei ;)

Ach wie passend, weils so schön ist (DANKE BlauX)
 
Zuletzt bearbeitet:
@Beelzebub
Gaaanz grob geschätzt könnte sie dann 5-8 fach schneller sein. ;)
 
moquai schrieb:
Meine Meinung dazu, wobei die "üblichen" anderen Nachteile von CF oder SLI auch noch Bestand haben.
Aktuell ja, aber ich glaube das beide Hersteller da nicht geschlafen haben. Die wissen auch, daß sie die maximale Leistung für bestes VR nicht mit einer einzelnen Karte zur Verfügung stellen können, gerade AMD wo die erstmal nur die preisliche Mittelklasse bedienen. In dem AotS Bench sehe ich diesbezüglich keine Unterschiede. Witzig fand ich einige Kommentare die Microruckler festgestellt haben wollten, und später stellt sich heraus, daß es der Bench von Nvidias 1080 war. :D
dieser Verdreher war auch der Grund, warum ich von der Bildqualität der 480er erst enttäusch war, nun bin ich von der Bildqualität der 1080er enttäuscht, hoffe aber daß dies ein AotS Einzelfall ist und nicht DX12 allgemein. Bei den Benchmark-Videos der GTX1080 habe ich eigentlich keine Auffälligkeiten bemerkt.
 
EchoeZ schrieb:
Das schrieb ich aber sehr wohl, nur nicht im letzten Post.


Verzeih. Nicht bedacht - war aber auch kein Vorwurf an dich, falls das so zu verstehen war.
Aber was schätzt du, wie lange ich gebraucht habe, um auf meine angegebene Betriebszeit/Nutzzeit 12 Monate/8760 Stunden zu kommen :D


Als Tipp meine SSD: 21708 Stunden. Gemessen wurde nur wenn gezockt wurde, oder wegen Arbeit ausgelastet wurde ^^
 
Zuletzt bearbeitet:
EchoeZ schrieb:
Aktuell ja, aber ich glaube das beide Hersteller da nicht geschlafen haben.
Man kann es für die Zukunft nur hoffen, deswegen habe ich auch "üblichen" geschrieben und VR nicht besonders berücksichtigt, da der momentane Stand noch der ist oder sein wird, dass die typischen Probleme noch nicht (ganz) vom Tisch sind.
 
modena.ch schrieb:
Es ist ja inzwischen auch klar, dass es zwei Vega GPU geben wird.

Ich gehe mal davon aus dass Vega 10 die 490(X) stellen wird und Vega 11 die Furies.
Dass beide mit HBM kommen werden ist auch nich so fix.

https://www.computerbase.de/forum/attachments/amd-radeon-imgur-jpg.561918/

Fiji war auch eine Klasse für sich, ich denke daß AMD sich das so vorstellt:
Eine Serie für Mainstream von 460-490 (Einsteiger bis Highend) basierend auf Polaris, eine Serie für Enthusiasten ala Fury und Nano basierend auf Vega.
Dabei denke ich, daß diese Unterteilung von Mainstream (was nicht Mittelklasse sondern einfach die "breite Masse" gemeint ist) und Enthusiast (besondere Produkte mit speziellen Eigenschaften) garnicht so verkehrt ist.
Es könnte dann so aussehen:
Mainstream: 460 (Polaris11/Einsteigerkl.) 470 (Polaris11/Mittelkl.) 480 (Polaris10/Oberklasse) und 490 (Polaris/Highend), die X-Versionen als Übergang zwischen den Klassen

Enthusiasten: Nano 2 (Vega11/Kompaktklasse) Fury 2 (Vega10) FuryX 2 (Vega11)

Wobei die Namen jetzt nur Platzhalter sind und es eventuell auch andere Modelle für Vega gibt.
Ergänzung ()

Wadenbeisser schrieb:
Die Argumentation war auch schon zu Fermi Zeiten und bei Tests von sparsam gedrosselten Referenz Designs lächerlich die so so gut wie nie im Handel erhältlich waren.
Die Spitze der Lächerlichkeit erreicht man aber wenn man darüber den Kauf einer neuen, kaum schnelleren Karte rechtfertigen will und dann noch mit der Umwelt daher kommt.
+1

Beelzebub schrieb:
Ob es sich lohnt von einer HD4870 auf die 480 zu wechseln? :D
Neuer PC muss dringend her. *Sigh*
Neeein, bestimmt nicht :D.. Du bist auch jemand der die Regler bis zum erbrechen nach links schieben kann, ich auch. So wichtig ist mir max Quali nähmlich nicht.
Btw nebenher zock ich grad CoD W@W, das macht soooviel mehr fun als Hardline, Adwance Warfare etc.


Dreamliner schrieb:
Übertakte die HD4870 auf Titan X Niveau,dann brauchst du nicht wechseln! :)
Da brauch man aber ne Menge Kühlmittel für die arme 4870 :lol:

BlauX schrieb:
Verzeih. Nicht bedacht - war aber auch kein Vorwurf an dich, falls das so zu verstehen war.
Aber was schätzt du, wie lange ich gebraucht habe, um auf meine angegebene Betriebszeit/Nutzzeit 12 Monate/8760 Stunden zu kommen :D
Nö hab ich nicht, mag vvl. sein daß mein Ton das impliziert hat, aber nachdem ich nun seit meiner Anmeldung hier und früher in anderen Foren versucht habe die Unterschiede von Verbrauch und Leistung zu vermitteln, schreibt die Verzweiflung ein wenig mit. ;)

edit: etwa 8760 Stunden pro Jahr :D
Ergänzung ()

moquai schrieb:
Man kann es für die Zukunft nur hoffen, deswegen habe ich auch "üblichen" geschrieben und VR nicht besonders berücksichtigt, da der momentane Stand noch der ist oder sein wird, dass die typischen Probleme noch nicht (ganz) vom Tisch sind.

Hab ja VR nur wegen der benötigten Grafikleistung erwähnt, das sollte dann auch für den normalen Betrieb Vorteile bringen, auch wenn da die speziellen VR-Mechaniken nicht unbedingt greifen.
Aber wieder alles Spekulatius, das muss erst alles gecheckt werden.
 
Zuletzt bearbeitet:
EchoeZ schrieb:
edit: etwa 8760 Stunden pro Jahr :D


:-( über 3 Jahre :D


GCN ( Architektur/Ansatz ) wird schlussendlich dominieren. Was sind die Vorteile von GCN? - Dahin geht die Zukunft. Zwangsläufig. Da kann sich Nvidia auch nicht verwehren. Too much GCN-Chips im Gaming Markt.
Was Nvidia macht ist ein auf Bremse machen. Haben es wohl Zeitlich nicht mehr hingekriegt es bei Pascal zu tun (sind näher angerückt, aber reicht nicht [ ALU-Anzahl pro Cluster von 128 auf 64 wie bei AMD bzw. GCN und Skalare-Unit kommt wohl auch erst zu Volta] ) Volta wird wohl das meiste bringen und bis dahin wird wohl auch NV aufhören dieser Entwicklung gegenzusteuern. Wenn die 1080TI bzw. Titan nicht noch einige Überraschungen bringen werden... Stichwort: Heizer :D

Edit: Wenn die Software-Seite allerdings nun schneller als NV Richtung GCN kippt, kann es böse werden. Ich denke man kann es an VR festmachen, spätestens aber schon 2017 im laufe.
 
Zuletzt bearbeitet:
Ich dachte schon, Du müsstest am Chefsessel bereits festgewachsen sein, das Jahr hat nur 9125 Stunden :lol:

Das ist auch meine Befürchtung. Bei den ersten AotS benchmarks war klar, das es nur 1 Bench ist, der nur bedingt Rückschlüsse erlaubt. Mittlerweile gibts ja einige mehr und bis auf TR sieht für GCN rosig aus.
Fast alle Modelle duellieren sich mit Nvidia-Karten eines Preislevel darüber. Das ist schon beachtlich.
 
Zuletzt bearbeitet:
Die Messung ist an und für sich echt quatsch. Ich hab in der Zeit 2x Neu Grafikkarten drin. CPU und der Rest ist aber gleich geblieben.

Habs aber mal aus Jucks einfach mal gemacht. Immer wenn gezockt wurde oder die Kiste nicht mehr als "Idle" zu bezeichnen war, den Verbrauch aufgezeichnet inkl. Lastspitzen etc pp und das über 3 Jahre lang.... glaub sogar 4 - musste die Daten exportieren und wieder importieren wegen Umbauten :D
 
@EchoeZ
Ich für meinen Teil vermute das es jetzt ähnlich wie bei der R9 380(x) laufen könnte.
Der Retail Markt bekommt erstmal nur die 480er mit den gestutzten GPUs, die vollen GPUs wandern erst einmal nur zu den OEMs und kommen deutlich später als 480x.
Im laufe der zweiten Jahreshälfte rechne ich dann mit einer GPU die den 490er Bereich bedienen wird und als direkter Konkurrent für die GP104 Modelle dient und mit einem Big Chip wie dem Fiji rechne ich erst nächstes Jahr. Dann hätte der Fertigungsprozess genug Zeit zum reifen.
 
Zuletzt bearbeitet von einem Moderator:
@BlauX
Ich habe das eigentlich nur einmal gemacht.
Nach einem Abstecher ins ATI Lager mit X800XL konnte ich günstig eine Saphire X1950XTX in der Bucht ergattern.
Ca. ein halbes Jahr später kam die 8800GTS512, die ich ebenfalls ztum Kapfpreis ergattern konnte, ich gebe niemals mehr als 200€ für ne Graka aus. Früher warens entsprechen 400DM.
Ich habe dann die X1950XTX gegen die 8800GTS antreten lassen. Stromzähler am PC, Tools für Graka und CPU Last etc und so für jeden Benchmark die elektrische Arbeit in Wh des Systems notiert.
Leider habe ich die Ergebnisse nicht mehr, aber das Fazit war: Doppelte Grafikleistung der 8800GTS512 bei ungefähr gleichen Lastspitzen, der Verbrauch des Gesamtsystems lag aber nur grob 2/3 mit der ATI Karte.
Dank der ganzen Stromsparmechanismen (eigentlich als Funktion zum Abwärme- und nicht Geldsparen) die es heute gibt, sollte man noch besser wegkommen. Also bei 1 Stunde Spielzeit mit 300W Lastspitzen sollten nicht 300Wh sonder eher 150Wh auf dem Zähler stehen.

@Wadenbeisser
Jo, die OEMs. Muss aber nicht heissen, daß etwas abgespeckt wird. Aber ich kenne zu wenig OEM Karten,
soweit ich mich erinnere musste ich mich mit einer GTS150(OEM) rumschlagen, weil es keine Treiber mehr dafür gab. Da die GTS150 vollständig identisch mit der GTS250 ist, konnte ich deren Treiber verwenden.
Das beweisst eigentlich nur das aus Herstellersicht Namen Schall und Rauch sind.
Und daß es dann Varianten mit weniger Shader und mehr Takt etc gibt machts nicht einfacher.
Lassen wir uns überraschen, was bis zum Jahresende noch so kommt. Neben der 1060 steht ja noch eine 1050 im Raum. Zum Ende Q1/2017 sollten dann beide Hersteller ihre aktuelle Palette vervollständigt haben.
Das ist nicht der erste Prozesssprung den ich mitmache, aber definitv der Spannenste ;)
 
Zuletzt bearbeitet:
@EchoeZ
Wie gesagt, es würde mich nicht wundern wenn der Chip im Desktop Markt erstmal nur in gestutzter Form auftauchen wird denn bereits die R9 380 startete im Juni 2015 und die 380x mit dem vollen Chip erst 6 Monate später, wobei zu bedenken ist das der gestutzte Tonga bereits im September 2014 auf der R9 285 seine Premiere feierte. In der Zwischenzeit wanderten offensichtlich alle vollen GPUs an OEMs wie Apple und Dell.

Da bisher nur von der Rx 480 die Rede war gehe ich von einer ähnlichen Strategie aus.
Die OEMs bekommen den vollen Chip und der Retail Markt bekommt vorerst nur den Rest. Das würde auch den vergleichsweise geringen Preis erklären denn vom Rest dürfte vor allem in der Anfangszeit mehr als genug übrig bleiben und man bekommt bei den OEMs einen Fuß in die Tür.

Die GTS150 würde ich bei einem solchen Vergleich außen vor lassen da die gesammte Geforce 100 Serie eine OEM Serie aus bekannten GPUs war. Deren Chip (G92b) feierte erstmals auf der Geforce 9800 GTX+ seine Premiere und war ein Shrink vom G92, welcher schon auf deiner 8800GTS 512 zum Einsatz kam.
Die 8800GTS 512 sollte man übrigens nicht mit der 8800GTS verwechseln, welche mit dem G80 in min. 8 Varianten verkauft wurde. Die 512er kloppte sich eher mit der 8800 GTX oder Ultra.
 
Zuletzt bearbeitet von einem Moderator:
@Darkscream
Da kann man nur abwarten.
Der große Pascal Chip wird meiner Meinung nach noch bis zum Jahreswechsel auf sich warten lassen aber ob die Karten dann in Stückzahlen verfügbar sind und vor allem wie der Preis dann ausfallen wird steht auf einem ganz anderen Blatt geschrieben. Angesichts des Startpreises der GTX1080 und dem nahezu nicht vorhandenen Preisverfall der letzten Generation gehe ich von ca. 1300 - 1500€ für die nächste Titan und ca. 1000€ für das nächst kleinere Modell aus.
Mit dem kleineren Chip wären sie dann in dem Marktsegment angekommen das AMD dann bereits mit der 480 belegt hat.
Für mich sieht das aktuell einfach so aus als würden beide Hersteller einfach nur unterschiedliche Strategieen fahren.
AMD hat sich auf Stückzahlen und damit den Ausbau der Marktanteile konzentriert wärend nvidia höhere Verkaufspreise angestrebt hat und beide müssen mit den Big Chips warten bis die Fertigungsprozesse dafür reif sind. In der Zwischenzeit startet nvidia die Konkurrenz Chips für die 480er Modelle und AMD bringt den Konkurrenz Chip für den GP104 denn letztendlich kochen alle nur mit Wasser.

Die Zeit wird zeigen welche Strategrie besser war.
 
Wenn der große Pascal nicht mit HBM2 daherkommt sehe ich wirklich keinen Grund damit so lange zu warten.
 
Wadenbeisser schrieb:
@EchoeZ
Wie gesagt, es würde mich nicht wundern wenn der Chip im Desktop Markt erstmal nur in gestutzter Form auftauchen wird denn bereits die R9 380 startete im Juni 2015 und die 380x mit dem vollen Chip erst 6 Monate später, wobei zu bedenken ist das der gestutzte Tonga bereits im September 2014 auf der R9 285 seine Premiere feierte. In der Zwischenzeit wanderten offensichtlich alle vollen GPUs an OEMs wie Apple und Dell.

Da bisher nur von der Rx 480 die Rede war gehe ich von einer ähnlichen Strategie aus.
Die OEMs bekommen den vollen Chip und der Retail Markt bekommt vorerst nur den Rest. Das würde auch den vergleichsweise geringen Preis erklären denn vom Rest dürfte vor allem in der Anfangszeit mehr als genug übrig bleiben und man bekommt bei den OEMs einen Fuß in die Tür.

Die GTS150 würde ich bei einem solchen Vergleich außen vor lassen da die gesammte Geforce 100 Serie eine OEM Serie aus bekannten GPUs war. Deren Chip (G92b) feierte erstmals auf der Geforce 9800 GTX+ seine Premiere und war ein Shrink vom G92, welcher schon auf deiner 8800GTS 512 zum Einsatz kam.
Die 8800GTS 512 sollte man übrigens nicht mit der 8800GTS verwechseln, welche mit dem G80 in min. 8 Varianten verkauft wurde. Die 512er kloppte sich eher mit der 8800 GTX oder Ultra.


Stimmt, alle Geforce 100er waren OEM, glatt vergessen. ;) Ist aber eigentlich egal, es ist relabeln, nur für einen anderen Markt. Finde ich aber nicht verwerflich, wenn P/L stimmt.
Das späte erscheinen der 380X war Mist, ebenso wie ihr (anfängliches) P/L Verhältnis. Preislich mittig zwischen 380 und 390, aber nicht Leistungsmäßig. Das hat der Markt aber gut reguliert.
Die 8800 Serie war wirklch ein komisches Ding, mein Bruder - begeistert von der Leistung der 8800/512 - hat sich auch eine bestellt. Er war dann ganz Stolz und meinte, er hat sogar mehr RAM als ich..640MB. Kopf->Tisch. Zum Glück liess sich das noch regeln ;)
Ist aber zu OT, der alte Mist.

Hast recht mit den langen Zeiträumen(380/X), und ich hoffe, daß AMD das diesmal nicht so handhabt. Es ist eine "neue" Zeit, so viele Änderungen auf einem Haufen, eine Menge Dinge die AMD lt. Präsentation ändern will, gerade im Bezug auf den Retail-Markt. Es wurde davon gesprochen, daß Dieser viel zu wenig Beachtung bekam. Kann alles blabla sein, in den nächsten 6 Monaten wissen wir einiges mehr.
 
Angesichts des Startpreises der GTX1080 und dem nahezu nicht vorhandenen Preisverfall der letzten Generation
Ich spekuliere jetzt mal das es den nicht gegeben hat damit man in dieser Generation wieder einen machen kann.
Die GTX 980 war für mich eigentlich immer zu teuer.
 
@Darkscream
ehrlich gesagt wäre ich mir noch nicht einmal sicher ob der GP102 wirklich das besagte Big Chip Modell wäre denn es würde so garnicht zur bisherigen Namensgebung passen. Ich vermute hier eher einen Zwischenschritt mit einem kleineren Chip der so 450 - 500 mm² hat und ein 550 - 600 mm² Schlachtschiff kommt erst in einem gute Jahr.
Das leite ich jedenfalls von den Kepler Modellen ab bei denen man ebenfalls mit dem mittleren Chip, dem GK104 als neues High End Modell startete und der GK110 folgte erst fast ein Jahr später in beschnittener Form mit der ersten Titan. Auch in diesem Fall war es die erste Modell Reihe mit einem neuen Fertigungsprozess und die komplexität nahm traditionell mit steigener Nummer auf der letzten Stelle ab.
Bei einem GP102 bleibt also noch Platz für einen GP100.

Bei AMD war das dank der Namensgebung deutlich undurchsichtiger.
 
Die Namensgebung macht eben schon Sinn (diesmal) - GP100 ist eine reine Profikarte die zu viel unnötigen Ballast mit sich rum schleppt, den kein Gamer braucht. Außerdem werden die GPUs ja auch im automotive Bereich eingesetzt, was es auch erlauben dürfte relativ ungewohnte Board Zusammensetzungen zu sehen weil es diese im anderen Bereich schon gibt.
Ich bin aber schon überaus gespannt auf die RX480, vor allem ob sie auch einigermaßen taktbar sein wird.
 
Wie gesagt, abwarten.
Ich vermute da eher einen Chip in der Größenordnung wie AMDs Grenada (Hawaii).
Unterschiedliche Architektur Revisionen schlugen sich wie bei nvidias Maxwell Architektur in der ersten Zahl nieder, eine Überarbeitung des Chips hingegen in der zweiten Nummer wie bei Nvidias GK110. Genau deshalb vermute ich beim GP102 einen Zwischenchip der natürlich durch die geringere Komplexität im Vergleich zu einem 600 mm² Klotz früher erscheinen kann und dann natürlich auch nicht an die HBM2 Aussage gebunden ist.
Ich bin nur mal gespannt wie sich das bei den Produktnamen niederschlägt und wie AMD es diesmal mit ihren GPUs aufteilen wird.
 
Zurück
Oben