Ich weiß nicht, ob ich lachen oder weinen soll. GPU-Z nutzt eine Datenbank um die Daten der Grafikkarte zu erheben. Das sagt genau nichts aus...Thanok schrieb:Interessant ist allerdings dass GPU-Z die GPU auch als Hawaii erkennt und nicht Grenada; das zeigt endgültig dass der Hawaii Chip leider unverändert verwendet wurde. Einige kleinere Optimierungen hätte ich mir da schon gewünscht, da hätte sich sicherlich etwas machen lassen.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Aus Hawaii wird Grenada: Spezifikationen der Radeon R9 390X und R9 390
- Ersteller MichaG
- Erstellt am
- Zur News: Aus Hawaii wird Grenada: Spezifikationen der Radeon R9 390X und R9 390
Nai
Lt. Commander
- Registriert
- Aug. 2012
- Beiträge
- 1.578
Zur Diskussion ob VRAM korrekt:
Kommt darauf an, welcher Terminologie man sich anschließt. AMD bezeichnet den Speicher seiner GPUs in offizielen Dokumenten allgemein als VRAM während NVIDIA in seinen offizielen Dokumenten den Speicher seiner GPUs allgemein als DRAM bezeichnet.
Kommt darauf an, welcher Terminologie man sich anschließt. AMD bezeichnet den Speicher seiner GPUs in offizielen Dokumenten allgemein als VRAM während NVIDIA in seinen offizielen Dokumenten den Speicher seiner GPUs allgemein als DRAM bezeichnet.
W
Wolfsrabe
Gast
Was war eigentlich mit dem 24.06. gemeint ? Gibt es da mehr als morgen zu erfahren?
Und wann kann man mit Tests der kompletten 300er und Fury-Reihe inkl. Custom-Kühlung rechnen?
Und wann kann man mit Tests der kompletten 300er und Fury-Reihe inkl. Custom-Kühlung rechnen?
Thanok
Vice Admiral
- Registriert
- Feb. 2009
- Beiträge
- 6.555
Genau genommen zieht sich GPU-Z den Spaß einfach aus dem BIOS raus. Wenn man will könnte man so auch die Radeon R11 Uber-Ultra Tri-X Xtreme X-Edition 1337 Ultimate Experience Fury Crusher in seinem PC haben.5@n!töt3r schrieb:GPU-Z nutzt eine Datenbank um die Daten der Grafikkarte zu erheben. Das sagt genau nichts aus...
Natürlich stellt sich hier die Frage ob nicht einfach das BIOS einer 290X mit 8GB etwas verändert wurde um den Screen zu erstellen. Völlige Gewissheit gibt es erst morgen.
@Wolfsrabe: Es gibt Gerüchte dass AMD die Fury morgen zwar vorstellt und auch zum Verkauf freigibt, erste Tests aber erst am 24.06. erlaubt. Ob da was dran ist kann ich nicht sagen. Ich fände es jedenfalls ziemlich sinnlos. Entweder ist die Karte so schnell wie es geglaubt wird, dann kann man doch auch gleich Testergebnisse bringen um das Ergebnis zu untermauern. Oder aber die Karte ist nicht so schnell und man hofft in der Woche trotzdem einige Karten zu verkaufen.
Jedenfalls würde ich so ein Verhalten, sofern sich dieses Gerücht überhaupt bewahrheitet, so auslegen.
Zuletzt bearbeitet:
cypeak
Captain
- Registriert
- Dez. 2013
- Beiträge
- 3.743
selbst wenn..was soll angesichts dieser 390(x) bei der 380(x) so viel mehr argumente bringen?johnniedelta schrieb:Wenn AMD morgen überhaupt Relevantes zur 380er Reihe preisgibt. Bis jetzt ging´s ja immer nur um Fury und 390...
ich fahre momentan auf einer gtx770oc...eine 290(x) ist pi mal daumen 25% schneller, eine gtx970 rund 40-45%.
eine 280(x) ist etwa en par...warum sollte ich also jetzt schätzungsweise 200-300 euro für eine 380(x) ausgeben?
optimal wäre sowas wie eine gtx970, aber für eine verkrüppelte nv lösung die durch treiberoptimierungen "pseudogefixt" werden muss, gebe ich keine 380 euro aus...
noch spiele ich etwas ältere titel, für die eine 770er mehr als locker ausreciht; also warte ich erstmal; wenn skylake auf dem desktop aufschlägt und sich die preise eingependelt haben, dann schaue ich und bewerte neu ob sich eine invstition irgendwie rechtfertigen lässt..
@Laggy.NET
Unsinn von dir war es aber zu schreiben, dass AMD nix is, weil sie kein DX12.1 unterstützen. Hier gilt ganz einfach: Ohne Ahnung einfach mal die Klappe halten.
Nvidia ist in Sachen DX12 jedenfalls nicht wirklich vor AMD. Sie werden aber versuchen ihre Unterstützungen zu pushen! (Gameworks, etc.)
Xbox one und PlayStation unterstützen DX12 FL: 12_0
AMD unterstützt DX12 FL:12_0 Tier:3 (seit GCN 1.0)
Nvidia unterstützt eigentlich nur DX12 FL:11_0, außer Maxwell 2.0, der unterstützt DX 12 FL 12_3, aber nur Tier 2.
Lies mal über Tiers, aber bitte nicht auf Nvidiabase!
Unsinn von dir war es aber zu schreiben, dass AMD nix is, weil sie kein DX12.1 unterstützen. Hier gilt ganz einfach: Ohne Ahnung einfach mal die Klappe halten.
Nvidia ist in Sachen DX12 jedenfalls nicht wirklich vor AMD. Sie werden aber versuchen ihre Unterstützungen zu pushen! (Gameworks, etc.)
Xbox one und PlayStation unterstützen DX12 FL: 12_0
AMD unterstützt DX12 FL:12_0 Tier:3 (seit GCN 1.0)
Nvidia unterstützt eigentlich nur DX12 FL:11_0, außer Maxwell 2.0, der unterstützt DX 12 FL 12_3, aber nur Tier 2.
Lies mal über Tiers, aber bitte nicht auf Nvidiabase!
deathscythemk2
Commander
- Registriert
- Jan. 2013
- Beiträge
- 2.430
@cypeak
Bei welchem Test soll denn die 970 20% schneller als die 290X sein? Nach meinem letzten Stand waren beide auf Full HD gleichauf und auf 2,5k zog die 290X der 970 davon.
Bei welchem Test soll denn die 970 20% schneller als die 290X sein? Nach meinem letzten Stand waren beide auf Full HD gleichauf und auf 2,5k zog die 290X der 970 davon.
J
johnniedelta
Gast
Ein Argument wäre, dass aus Tonga sicher mehr Steigerung rauszuholen ist als aus Hawaii.
Es soll ja einen Vollausbau geben, und jetzt wäre der richtige Zeitpunkt. Mit mehr Speicher und Speed wäre eine R9 295 im Performance-Segment sehr attraktiv.
Indes stimme ich dir zu, dass man auch mit älteren, aber starken Karten noch sehr gut im Rennen liegt.
Ich habe eine HD 7950@1200MHz, also in etwa so schnell wie eine GTX770. Und ich spiele Skyrim und diverse Stalker-Mods mit soliden 40-70fps in 3440x1440, je nachdem. Die "älteren" Spiele, also 2011-13 laufen top. Und bei den neuen interessiert mich erst Cyberpunk 2077 und Star Citizen. Und bis 2016 wird AMD wohl was wirklich Neues am Start haben, in 14nm.
Kommt also immer auf den Standpunkt an, meckern an Karten tun immer nur die 4k/Ultra-Deppen, alle anderen kommen mit ihren Karten meist noch eine Weile ganz gut zurande. Und bis Tests zur R300 vorliegen, glaub ich eh nichts mehr!
Es soll ja einen Vollausbau geben, und jetzt wäre der richtige Zeitpunkt. Mit mehr Speicher und Speed wäre eine R9 295 im Performance-Segment sehr attraktiv.
Indes stimme ich dir zu, dass man auch mit älteren, aber starken Karten noch sehr gut im Rennen liegt.
Ich habe eine HD 7950@1200MHz, also in etwa so schnell wie eine GTX770. Und ich spiele Skyrim und diverse Stalker-Mods mit soliden 40-70fps in 3440x1440, je nachdem. Die "älteren" Spiele, also 2011-13 laufen top. Und bei den neuen interessiert mich erst Cyberpunk 2077 und Star Citizen. Und bis 2016 wird AMD wohl was wirklich Neues am Start haben, in 14nm.
Kommt also immer auf den Standpunkt an, meckern an Karten tun immer nur die 4k/Ultra-Deppen, alle anderen kommen mit ihren Karten meist noch eine Weile ganz gut zurande. Und bis Tests zur R300 vorliegen, glaub ich eh nichts mehr!
cypeak
Captain
- Registriert
- Dez. 2013
- Beiträge
- 3.743
deathscythemk2 schrieb:@cypeak
Bei welchem Test soll denn die 970 20% schneller als die 290X sein? Nach meinem letzten Stand waren beide auf Full HD gleichauf und auf 2,5k zog die 290X der 970 davon.
siehe tests hier auf cb.
bezogen auf meine 770 stimmen die angaben.
betrachtet man nur die 970 und 290/x, so sind bei referenzdesigns/taktungen die 970er rund 10% schneller....bei der jeweiligen oc varianten sind sie aber gleichauf, da hast du recht.
der große unterschied liegt aber darin dass die 290er in den oc-varianten satte 50% (!!) mehr strom schluck(en), deutlich lauter sind und richtig abwäreme produzieren..
siehe auch hier: https://www.computerbase.de/2015-05/17-grafikkarten-von-amd-und-nvidia-im-vergleich/7/
pipip
Fleet Admiral
- Registriert
- Jan. 2011
- Beiträge
- 11.409
D3Spieler schrieb:Das ist eben doch anders und nicht das gleiche.
Wenn es Nvidia nicht anders machen würde dann wäre es so GTX 680 = 780
Na siehst du den Unterschied? Einen alten High End Chip rebranden und ihn dann in einer günstigeren Preisebene anbieten, ist an sich legitim, da er ja immer noch genug Leistung bietet. Der Preis wird nur entsprechend angepasst
Ich habe das schon sehr früh erwähnt. Der Große Unterschied ist, dass AMD hier eine neue Serie oberhalb der R9 390X einschiebt. Es ist wie bei der HD 6000 Serie, wo es die gleiche Diskussion mit der 6870 vs 5870 gab. Im dem Fall war es ein neuer Chip, nur war die 6870 sogar eine spur langsamer. Am Ende wurde die 6870 für viele Rechner empfohlen und verbaut.
Doch ist die "Taktik" von NV auch eine komplett andere. Zuerst limitiert einen fetten Chip auf den Markt bringen und nach paar Monaten den gleichen als Ti verkaufen.
Das AMD aber es nicht gleich macht, wird wohl eher am HBM und GDDR5 liegen. Man gehe das doch mal mit einem Gedankenspiel durch. Fijii Pro als R9 390X und 4 GB hätte dann die R9 390 mit 4GB impliziert. Der Performance-Unterschied zwischen R9 390X und R9 390 (Hawaii XT) wäre vermutlich etwas "groß". Weiteres hätte dann die komplette Serie nur "4GB".
Außerdem, als bei der HD6000 Serie die 6870 eingeführt wurde, wurde die 6870 auch nicht um den selben Preis verkauft. Ich würde einfach mal paar Tage die Preise abwarten. Da werden Preise teils von ein paar wenigen Händler präsentiert, die natürlich den Preis höher ansetzten, wenn sie kaum Konkurrenz haben und es durchaus early adopter gibt.
Laggy.NET schrieb:Und ob man das ganze nun FL 12.1 oder DX 12.1 nennt macht für uns praktisch keinen Unterschied, denn ich denke nicht, dass Microsoft jemals ein DX12.1 bringt, wenn es bereits ein Feature Level 12.1 gibt.
https://www.computerbase.de/forum/t...-390x-und-r9-390.1485003/page-9#post-17510497
Ergänzung ()
Wolfsrabe schrieb:Sei enttäuscht oder auch nicht, nachdem Tests veröffentlicht wurden, nicht voher, wo dubiose "Insider" behaupten, irgendwelche Informationen "zugespielt" bekommen zu haben.
Ja Marketing eben. Das kann man dann auch gezielt nützten um vor dem Lunch die Karten schon in ein schlechtes Licht zu Rücken. Das letzte mal haben wir das ja bei den Konsolen PS4 und XOne gesehen. Da wurden viel Sachen zerlegt und runtergespielt und überall groß Schlagzeilen nur weil es Klicks generiert. Marketing nützt diesen Umstand nun mal aus. Es ist wie eine Win Win Situation oder Symbiose
Man merkt ja jetzt schon, dass viele User so tun, als ob es der offizielle Test sei. Doch muss ich zugeben, gespannt bin ich schon, neben Fury auf diese angeblichen Treiber. Kann ja auch gezielt von AMD "gestreut" worden sein. Wenn hier wirklich Zuwächse gibt und eventuell die Treiber GCN anders "füttert" und tatsächlich höhere Taktrate erlaubt (was irwie schwer zu glauben ist), dann könnten aktuelle GCN Grafikkarten und nicht nur die neuen, plötzlich anders "dastehen". Man darf hier doch gespannt sein, ob echt oder nur eine Ente.
Nai schrieb:AMD bezeichnet den Speicher seiner GPUs in offizielen Dokumenten allgemein als VRAM während NVIDIA in seinen offizielen Dokumenten den Speicher seiner GPUs allgemein als DRAM bezeichnet.
Dazu kann man nur sagen. Es ist doch oft der Fall dass manche Begriffe im "Volksmund" einbürgern, auch wenn sie nicht korrekt sind. Genauso wie dass man Energie nicht "erschaffen" kann oder "Strom ziehen" kann.
Hier wird nun mal VRAM für den GPU Speicher verstanden. Ich könnte auch meinen, es sei der virtuelle Speicher. Hier wird VRAM aber eben klar für den Speicher der GPU genützt. Verstehe also diese Diskussion nicht. Es gab ja genauso schon mal eine Diskussion wegen DIEs oder dGPU, ect. Man findet halt immer wieder was neues.
@cypeak
Welche R9 290X und 970 GTX wurde da denn verwendet ?
Zuletzt bearbeitet:
deathscythemk2
Commander
- Registriert
- Jan. 2013
- Beiträge
- 2.430
@cypeak
Ja das Problem sind hierbei die frühen Tests, die waren natürlich mit den grottigen Referenz-Kühlern. Mit den Custom Designs sieht das ganze nicht mehr so extrem aus
Die Referenzkühler hatten das thermale Problem. Bei höherer Hitze war die Fehlerrate höher, deshalb musste mehr gepowered werden um die Leistung zu schaffen, was natürlich auf den Verbrauch ging. Ich weiß auch nicht, was die sich bei diesen Kühler gedacht haben ~
Ja das Problem sind hierbei die frühen Tests, die waren natürlich mit den grottigen Referenz-Kühlern. Mit den Custom Designs sieht das ganze nicht mehr so extrem aus
Die Referenzkühler hatten das thermale Problem. Bei höherer Hitze war die Fehlerrate höher, deshalb musste mehr gepowered werden um die Leistung zu schaffen, was natürlich auf den Verbrauch ging. Ich weiß auch nicht, was die sich bei diesen Kühler gedacht haben ~
@pipip
Nicht nur ein neuer Treiber auch eine neue API kann die Einreihung gegenüber der Kokurrenz schnell ändern.
Maxwell sind nicht gerade Rechenmonster. Und falls!! DX 12 (Vulcan) etwas mehr Gebrauch von Direct Compute machen würde (was ja angedacht ist)
könnte selbst noch Tahiti den Boden mit der einen oder anderen Maxwellkarte wischen. Also die GTX 970 und 980 sind IMHO rein auf DX 11 zugeschnittene
Karten, welche ziemlich unter die Räder kommen könnten. Nicht umsonst verkauft NV immer noch Kepler wenns um Rechenleistung geht.
@cypeak
Die späteren Revisionen der R290X mit Customkühler, wurden teils auch mit etwas weniger Spannung betrieben und
sind schon nur aufgrund des Kühlers effizienter und sparsamer.
http://ht4u.net/reviews/2015/sapphire_radeon_r9_290x_tri-x_oc_8_gb_test/index14.php
Leistungsmässig sind zumindest solche Custommodelle eher bei der GTX980 als bei der 970er.
http://ht4u.net/reviews/2015/sapphire_radeon_r9_290x_tri-x_oc_8_gb_test/index38.php
Und was die Rechenleistung angeht ist es eben ein ganz anderes Kaliber. (evtl relevant unter DX12, Vulcan?)
Da darf sie IMHO auch einen Schluck mehr aus der Dose ziehen. Wobei, ob es bei den 3-4h am Tag (was IMHO viel ist)
welche man spielt wirklich ins Gewicht fällt?
Vor Kepler waren die AMD's immer effizienter und das hat wohl damals auch keinen interessiert.
Nicht nur ein neuer Treiber auch eine neue API kann die Einreihung gegenüber der Kokurrenz schnell ändern.
Maxwell sind nicht gerade Rechenmonster. Und falls!! DX 12 (Vulcan) etwas mehr Gebrauch von Direct Compute machen würde (was ja angedacht ist)
könnte selbst noch Tahiti den Boden mit der einen oder anderen Maxwellkarte wischen. Also die GTX 970 und 980 sind IMHO rein auf DX 11 zugeschnittene
Karten, welche ziemlich unter die Räder kommen könnten. Nicht umsonst verkauft NV immer noch Kepler wenns um Rechenleistung geht.
@cypeak
Die späteren Revisionen der R290X mit Customkühler, wurden teils auch mit etwas weniger Spannung betrieben und
sind schon nur aufgrund des Kühlers effizienter und sparsamer.
http://ht4u.net/reviews/2015/sapphire_radeon_r9_290x_tri-x_oc_8_gb_test/index14.php
Leistungsmässig sind zumindest solche Custommodelle eher bei der GTX980 als bei der 970er.
http://ht4u.net/reviews/2015/sapphire_radeon_r9_290x_tri-x_oc_8_gb_test/index38.php
Und was die Rechenleistung angeht ist es eben ein ganz anderes Kaliber. (evtl relevant unter DX12, Vulcan?)
Da darf sie IMHO auch einen Schluck mehr aus der Dose ziehen. Wobei, ob es bei den 3-4h am Tag (was IMHO viel ist)
welche man spielt wirklich ins Gewicht fällt?
Vor Kepler waren die AMD's immer effizienter und das hat wohl damals auch keinen interessiert.
Zuletzt bearbeitet:
DocWindows
Vice Admiral
- Registriert
- Mai 2013
- Beiträge
- 6.809
Thanok schrieb:Es gibt Gerüchte dass AMD die Fury morgen zwar vorstellt und auch zum Verkauf freigibt, erste Tests aber erst am 24.06. erlaubt. Ob da was dran ist kann ich nicht sagen. Ich fände es jedenfalls ziemlich sinnlos
Wäre das Verbot rein rechtlich dann überhaupt noch bindend? Man könnte sich als Onlinemagazin ja einfach eine Karte im Handel kaufen, sie testen und dann schon vor dem 24.06. darüber berichten. Kann mir nicht vorstellen dass NDAs auch für im freien Handel gekaufte Karten gelten können.
Zuletzt bearbeitet:
Für das "Nutzerprofil" ist dies viel.Amko schrieb:Haha, kA wieviel du bezahlst in CH, aber in Wien hier zahle ich 85 monatlich.
Und das bei zwei vollzeitarbeitenden Personen, die auch sonst viel unternehmen.
Warmwasser, Heizung per Strom? F@H, Boinc, etc.?
@DocWindows
Das dürften sie vermutlich schon, nur ist ein Test nicht so schnell aus dem Hut gezaubert.
think->write!
Lt. Commander
- Registriert
- Mai 2008
- Beiträge
- 1.156
Vorverkauf/reservation, damit sie am 24. ausgeliefert wir und nur ne dem und Daten zeigen morgen.
ThePegasus1979
Lt. Junior Grade
- Registriert
- Jan. 2008
- Beiträge
- 503
Hmm ich suche nen Nachfolger für meinen Sapphire HD 7970 Dual-X....aber irgendwie reizt mich da nix :/ Die GTX 970 halt ich vom Tempovorsprung jetzt für nicht ausreichend (leider wurde beim Testparcourupdate vergessen endlich einzuführen, auch die Vorvorgängergeneration mit zu testen..). GTX 980 finde ich preislich uninteressant, da passt m.M.n. das Verhältnis nicht ganz. Wenn jetzt die neuen ATI 390er nur umgelabelte und leidlich "beschleunigte" 290er Bratpfannen sind.....wird die 7970er wohl noch einige Zeit leben müssen
L
Laggy.NET
Gast
Und jetzt? Da sagst du mir nichts neues. AMD hat mehr Karten, die FL 12_0 unterstützen, als Nvidia, aber darum gehts aber hier nicht.KLEMSI schrieb:Komplettzitat entfernt...
So oder so könnte man erwarten, dass eine neue Generation die von AMD ein halbes Jahr nach Maxwell 2.0 eingeführt wird, FL 12_1 unterstützt.
Es ist einfach ein Nachteil. Wenn ich ne neue Karte kaufe, dann erwarte ich auch, dass sie ein möglichst aktuelles Feature Level hat. Gerade bei solchen Preisen.
Neben Lautstärke und Stromverbrauch wieder ein weiterer Negativpunkt. Warum sollte man da noch AMD kaufen? Nur weil man sie mag und die Leistung mit Nvidia mithalten kann?
Klar, die Unterschiede sind nicht dramatisch, aber DAS SIND nunmal die Unterschiede, die wir haben und die letztendlich auch zu einer Kaufentscheidung führen... Wenn das Produkt ansonsten gleichwertig ist, dann kommts eben auf sowas an. Man kauft schließlich als Verbraucher das beste, was man für sein Geld bekommen kann auch wenn der Unterschied noch so klein ist.
Zuletzt bearbeitet von einem Moderator:
(Komplettzitat entfernt)
major_tom111
Lt. Junior Grade
- Registriert
- Mai 2011
- Beiträge
- 456
Laggy.NET schrieb:Man kauft schließlich als Verbraucher das beste, was man für sein Geld bekommen kann auch wenn der Unterschied noch so klein ist.
Es sollte aber noch jeder selbst entscheiden dürfen, was für ihn das beste ist. Der eine will neueste API, der zweite den meißten ram, der dritte die höchsten FPS, der vierte den geringsten verbrauch, der fünfte das beste P/L Verhältnis, der sechste will PhysX, der siebente will Mantle, der achte will die kompakteste karte haben, der neunte will die leiseste karte haben... etc
Es ist also für jeden kunden etwas anderes kaufentscheidend/verhindernd
DX12 hat den vorteil, dass sich auf SW seite schon viel bewegt, und bis games kommen, die HW seitig das höchste FL & Tier beanspruchen, werden beide hersteller auf gleich gezogen haben
Ähnliche Themen
- Antworten
- 79
- Aufrufe
- 16.752
- Antworten
- 438
- Aufrufe
- 64.529
- Antworten
- 35
- Aufrufe
- 2.417
- Antworten
- 616
- Aufrufe
- 84.141
- Gesperrt
- Antworten
- 747
- Aufrufe
- 179.160