News Radeon RX 480: 18-cm-Platine, 60 °C unter Last, DVI als Option

Ja, wobei AMD (offiziell?) daran arbeitet, Freesync via HDMI nutzbar zu machen. EDIT: wow, wurde mein Beitrag spät abgeschickt. O2 Netz sei dank.
 
Evtl. weil so langsam HDMI 2.0a in allen Geräten ankommt, welches einfach genug Bandbreite bietet?
 
Was ist das denn für eine professionelle Temperaturmessung?
Halb durch das Gitter hindurch, halb auf dem Gitter?
Da misst man irgend einen Mittelwert zwischen irgendwelchen Komponenten im Inneren und der Gittertemperatur, aber nichts Vernünftiges.
 
@noxon
Dachte ich mir auch sofort, schon wieder so eine Clickbait News.
Seit wann ist die weggeblasene Luft von Kühlkörpern so heiß wie der Chip ?
Der wird doch locker 15° mehr haben...
 
xeonking schrieb:
daher wird es wohl partner-karten mit dvi geben. ich sehe auch kein grund weshalb man von amd seite aus noch dvi mit verbauen sollte,da reicht ein adapter locker aus. und wenn die monitore noch kein dp haben,ist oft zumindest hdmi verbaut.

edit: und die 100watt verbrauch unter last sind auch interessant, da ist noch ein wenig luft zum übertakten,selbst ohne weiteren 6/8 pin!

gruß

DVI = HDMI was das Signal angeht (DVI-I gibts an den Karten schon länger nicht mehr). Man benötigt auch nicht unbedingt einen einzelnen Adapter. Es gibt Kabel mit DVI am einen und HDMI am andern Ende.
 
Die im Screenshot gezeigte Karte hätte - wenn ich nicht verrechnet habe und der Screenshot echt ist - ca. 6119 TFLOP/s und wäre damit, die reine Rohleistung betrachtend, einer R9 390X ohne OC überlegen (Falls die Werte auf Wikipedia stimmen).

Das finde ich schon recht beachtlich, wenn man bedenkt, dass das noch nicht das Ende der Fahnenstange sein soll und die Karte ziemlich sicher noch unter 150W Leistungsaufnahme liegt - die R9 390X braucht knapp das Doppelte.
 
9t3ndo schrieb:
FreeSync geht nur über DP, da es auf dem DP Standard Adaptive Sync aufbaut, wenn ich das noch richtig im Kopf habe.
Ok, danke für den Hinweis!

@Nacho_Man:
Dann gehe ich mal davon aus, dass es mit meinem LG 27MU67-B noch nicht mit HDMI geht, weil er schon ein gutes Jahr auf dem Markt ist

@DaDare
Hm ok, also doch auch HDMI ... na mal sehen, werde das dann demnächst ausprobieren, hab je einen Kabel da, bei HDMI einen 2.0 tauglichen
 
Zuletzt bearbeitet:
9t3ndo schrieb:
Evtl. weil so langsam HDMI 2.0a in allen Geräten ankommt, welches einfach genug Bandbreite bietet?

Bei Gaming Monitoren wird sich sobald DVI tot ist dann DP wegen 120/144 Hz durchsetzen.
HDMI liefert auch mit 2.0 keinen 120/144 Hz Modus.
 
BookerDeWitt schrieb:
Nur 100W Verbrauch? Aber die Karte hat doch eine 150W TDP? Da gab es doch ein paar Experten, die aus 75W PCI-E und 75W vom 6Pin von einem 24/7 Realverbrauch von 150W geredet haben, natürlich untermauert von anderen Werten, sowie dem großartigem Verlgeich von NVidias Board-Design-Power und AMDs TDP.

Auf die famose Idee, dass die Karte keine 150W verbrauchen kann, da sie sonst außerhalb der Spezifikationen arbeitet sind diese Experten auch nicht gekommen, denn schließlich passt dies nicht gut in die Bashing-Argumentation, dass die Karte nur ähnliche Werte wie eine 970 erreicht und AMD ja eh tot ist, da sie die Leistung der 1080 nicht erreichen können (selbst wenn sie immer noch ~100mm^2 Puffer haben um erst einmal einen Die in der Größe des GP104 zu erreichen).

Stimme Dir vollkommen zu , WENN Du bitte das Wort 'Verbrauch' durch 'Leistungsaufnahme' noch ersetzt. Den Verbrauch kann man ungefähr abschätzen, wenn Igor (THG) die durchschnittliche Leistungsaufnahme direkt an der Graka mißt.
18-Gaming-Detail-Power-Consumption-Zoom.png
Auf dem Bild sieht man eine dicke Spitze, das ist der lange Balken für maximale Leistungsaufnahme. Unschwer ist zu erkennen daß über die Zeit die Leistungsaufnahme schwankt. Und hier ist es 1 Sekunde(!) einer fordernden Benchmarkszene.
Durchschnittliche Leistungsaufnahme x Zeit = Verbrauch


@Topic
So ein Mist aber auch, noch keine 2GHz...:lol:
 
BookerDeWitt schrieb:
Da ist ja schon der erste.

Ich finde es erschreckend das offensichtlich erkannte Trolle immer noch Antworten bekommen. Bei mir ist das Subjekt auf der Ignore-Liste. Don't feed the troll.

Hm,
 
Zuletzt bearbeitet:
Wie lange das gedauert hatte, bis VGA verschwunden war. Und DVI? Ist heute durch Dp abgelöst. Die Aufteilung von AMd ist genau richtig und gut.
 
guy47 schrieb:
Wo sind die Indizien zu den Preisen? Hab ich was übersehen? :confused_alt:

clickbait :D

Damit wurde wohl endgültig belegt, dass alle benchmark Werte von wccftech rein erfunden waren(wer hätte das gedacht). Die von videocardz hingegen sehr nah an der realität.
 
@noxon & ruthi91: danke, dass ihr mitgedacht habt. So siehts nämlich aus :)
 
Hallo zusammen,

@ MichaG

MichaG schrieb:
Ich wollte noch was zu den Preisen schreiben, aber da tappen alle noch im Dunkeln. Daher habe ich es gelassen, aber in der Einleitung vergessen. :(

Ich kann da weiter Helfen. Nachfolgend ein Link von hartware.net:

http://www.hartware.de/news_65357.html

Referenzdesign 8 Gbyte Version knapp 270 €. Allerdings kommen da noch Zollgebühren dazu, wenn die zu uns kommen. Die haben das einfach mal von Yuan umgerechnet in €. Wie gesagt, da kommen noch Gebühren dazu.

So long...
 
100 Watt?
Na dann hoffen wir mal alle, dass das auch tatsächlich stimmt.
Das würde Polaris 10 in den Bereich schieben, der gut (und nicht nur mit der Brechstange) für größere Notebooks geeignet ist.
Wie man an der Fury Nano gesehen hat, erreicht man bereits mit minimal niedrigeren Taktraten bedeutend niedrigere Leistungsaufnahme. Man kann zwar davon ausgehen, dass der Chip schon ungefähr am Sweet-Spot erscheint (weil so viel Wert auf Effizienz gelegt wurde und man den Chip nicht auf Krampf in einem gewissen Segment unterbringen muss) und man durch weniger Takt nicht so viel erreicht, wie man Leistung verliert aber mit irgendwas zwischen 1000-1100mhz mit Undervolting und leichtem Selektieren kann man das Ding sicher auf 80W drücken. Damit würde man voraussichtlich immer noch knapp im Bereich der Notebook GTX980 ohne M wildern (wenn die Benchmarks stimmen, die die 480 leicht über der 980 sehen. Klar gibt es dann auch die 1080(M) aber zu welchen Preisen? nVidia hat sich angewöhnt, für den X70 Chip im Notebook gut 400$ zu nehmen und den Top Chip im Bereich 700$ zu platzieren. Das entspricht natürlich nicht mal ansatzweise den Kosten aber seit der 700er Serie kann man es eben tun, weil seit dem nichts konkurrenzfähiges im Top Segment kam.
Kommt eine 80W R9 480M (8GB) mit über 1Ghz für 250-300$ (OEM Preis) (anhand der 199$ für den 4GB Chip durchaus realistisch!), wäre das ein gewaltiger Preisbrecher und würde nVidia endlich mal wieder den unverschämten Premium Aufschlag verhageln. Das wäre bei Schenker und Co. sicher ein sehr beliebtes Modell! Man kann dem Endkunden immer noch gewaltig was für die gute Spieleleistung abzocken, weil der gemeine Gaming Notebook Kunde keinen Plan hat aber bekommt den Chip selbst sehr günstig. OEMs lieben das :lol:
AMD wäre es zu wünschen. Auch wenn mir der mobile Markt absolut egal ist, ist ein durchschlagender Erfolg ganz besonders dort wichtig. Man hat jetzt seit Fermi Zeiten keinen High End tauglichen Mobilchip mehr gehabt.
 
Zurück
Oben