News AMD Radeon: Offiziell: Fiji-GPU abgelichtet, Start am 16. Juni

COD AW 7GB ahaha :D :D :D

@ Über mir, das ist die normale 390X und nicht Fiji, die hat 2x8Pin Stecker.
Außerdem gibts keine Custom Karten beim Start.
 
Zuletzt bearbeitet:
daher "mMn" ;-)

Und das ist eine unter mehreren Customs von PC zumindest.

Xanta schrieb:
@ Über mir, das ist die normale 390X und nicht Fiji, die hat 2x8Pin Stecker.
Außerdem gibts keine Custom Karten beim Start.
Willste mich veräppeln, was schreib ich denn:

BlauX schrieb:
http://www.tweaktown.com/news/45669...ext-gen-radeon-r9-390x-video-cards/index.html


NICHT "Fiji" Just 390x

Sieht Pott hässlich aus mMn. Sollte aber leise sein - 120mm Lüfter...
 
Zuletzt bearbeitet:
Pilstrinker schrieb:

Man sollte schon noch extra dazu schreiben, bevor irgendwelche lesefaulen Kiddies nur auf die bunten Balken schauen und Pipi in den Augen kriegen, weil ihre 4GB Karte zu knapp bemessen erscheint, dass im Text ausdrücklich steht, dass es sich um allozierten VRAM handelt, d.h. die Karten nehmen sich oft alles, was sie an VRAM kriegen können, aber benötigen faktisch nicht die gesamte allozierte Menge.
Aber im Grunde kann ich wie immer nur jedem raten sich selbst ein Bild zu machen. MSI Afterburner runterladen, installieren und sich per Overlay (oder wie bei mir z.B. im Display meiner G19-Tastatur) mal beim Zocken die VRAM Belegung ansehen. Viele werden überrascht sein wie genügsam die Mehrzahl aktueller Spiele selbst in hohen Qualitätseinstellungen und AA-Modi ist (in 1080p/1440p ... 4K ist ja eh meist noch unspielbar). Die mutmaßlich miserabel optimierten VRAM-hungrigen Ausnahmen heißen AC Unity, FarCry 4 und Shadow of Mordor. Ansonsten kommen die allermeisten Spiele locker mit < 3GB VRAM klar.
 
BlauX schrieb:
Und das ist eine unter mehreren Customs von PC zumindest.

Edit: Junge chill doch, mach mal den Text wieder klein :lol:

Meinte du meinst die Fiji ist die 390X.
 
Zuletzt bearbeitet:
Was ist an einem NICHT zu verstehen bitte?

Edit zu deinem Edit:

Ja klar... lies mal die ersten 1-4 Seiten, dann macht es klick, wieso ich das so NICHT meinen kann....insofern, was soll das. Ich schreib fett NICHT und man muss sich wegen son Müll auch noch Rechtfertigen. Sag mal...
 
Zuletzt bearbeitet: (entschärft)
DX12 hat mit den neuen Karten (GTX980Ti/TitanX/Radeon Fury) wohl wenig am Hut. Zwar unterstützen die Karten DX12, aber wann sind Anwendungen (vor allem Spiele) zu erwarten? Sicherlich legen sich die Meisten keine GraKa für 6 Monate zu. Wobei ich in diesen Preisregionen (>700€) nicht einmal davon überzeugt bin.
Ich rechne mit einer Vielfalt an DX12-Titeln erst Mitte 2016. Und huch, da werden wir dann wieder alle vor unseren Möhren sitzen und über Pascal und Artic Island spekulieren, da es zu diesem Zeitpunkt sicherlich schon eine Fülle an Gerüchten geben wird. Kauft man sich dann noch eine 980Ti oder Fury oder wartet man ab? ... Ich kann mir den Inhalt der Beratungsthreads schon sehr gut vorstellen. (Ja, meine Glaskugel funktioniert noch. :evillol:)
Wichtig ist doch vor allem, wie sich die Fury in DX11-Titeln mit Win10-Unterbau präsentiert (gleiches gilt für die 980Ti). Deshalb finde ich die Vorstellung/Verfügbarkeit von Fury 8GB HBM im August genau richtig.
 
nospherato schrieb:
@pipip
Möglichkeiten ala SFR gibt es schon, nur werden diese halt nicht benutzt...(Gibt glaube 1 Ausnahme?)
Wenn mit DX12 hier nicht irgendwie eine "einfache" Möglichkeit es zu nutzen kommt, wird das auch so bleiben.

Ich weiß dass es SFR bereits gibt, genauso wie Compute Shader. Damit jene Engine genutzt werden, hatte AMD auch lange die Demo Mantle. MS hat aber schneller eingelenkt, sodass man diese Features mit DX12 sehen wird.
Bisher hat DX11 auch nie wirklich MGPUs unterstützt, sondern benötigte spezielle Treiber (workaround). DX12 unterstützt nativ mGPU Systeme.



EadZ1
Laut einer "geleakten" Tabelle unterstützt GCN DX12 vollständig. Eigentlich nicht zu verwundern, MS XBOX ONE hat eine GCN GPU und wird wohl aus der Konsole ebenso einiges rausholen wollen.

Erste Spiele kommen übrigens das Jahr, unter anderem Star Wars Battlefront 3, Deus Ex: Mankind Divided. Beides noch im AMD Programm. Hier wird man wohl möglich bereits einige Features sehe, die vllt zuerst mit Mantle gedacht waren. Gab schon ein paar andere Games, wo man mit Mantle einige Features getestet hatte, darunter eben Compute Shader (Alien Isolation) und auch SFR Modus (Civilisation)
 
Zuletzt bearbeitet:
PiPaPa schrieb:
waren zu dem Zeitpunkt die HighEnd Produkte von nvidia, Titan X mal außen vor, und wurden und werden trotz des Speichers noch immer empfohlen.

Also ich war immer der Meinung, dass der Name und der Preis aus einer Karte mit Performance-GPU ala GM204 oder GK104 noch kein High-End macht. Jedenfalls nicht in dem Sinne, der früher mal galt. (500mm^2-Big-Chip, min. 382Bit-SI usw.) Nenn mich altmodisch. ;)

Die 980/970 sind einfach eine andere Klasse als die 980Ti, die kommenden Fiji-Karten, oder auch als es die 290X war, als sie ca. 1 Jahr zuvor auf den Markt kam. Wenn ich >700€ für eine Grafikkarte ausgebe, erwarte ich auch einfach etwas anderes, als für 300-500€.

Es gibt hier noch immer zig Beratungsthreads in denen einer GTX970 der Vorzug gegenüber einer 290X mit 4 bzw 8GB gegeben wird.

Also ich würde erstmal sagen, dass man weder auf der 290X noch auf der 980/970 mehr als 4GB braucht. Ausgenommen vielleicht bei SLI/Crossfire. Ich halte es für sinnvoll, ein gewisses Gleichgewicht zwischen GPU-Leistung und VRAM-Größe anzusteben.
Nur den VRAM zu verdoppeln, macht eine Karte nicht gleich extrem viel besser. Ich hab selbst jahrelang eine 3GB-GTX580 gehabt und der zusätzliche Speicher hat mir niemals etwas gebracht.
Aber wir sind jetzt halt doch ein paar Jahre weiter und die Entwicklung bleibt nicht stehen. Die GPU-Leistung hat sich mehr als nur verdreifacht und auch der VRAM-Bedarf steigt.

Ich habe vor 1,5 Jahren meine Kaufentscheidung für eine 780Ti mit nur 3GB verteidigt und ich stehe auch immer noch dazu, dass das VRAM bei dieser Karte für mich (noch) ausreichend ist. Ich denke, sie wird es auch noch mindestens ein weiteres Jahr tun. So lange muss ich halt notfalls auch mal einzelne Qulitätsfeatures in neuen Spielen etwas runter schrauben. Allerdings nicht nur wegen des VRAMs, sondern noch mehr, weil die GPU-Leistung der "alten" Kepler halt auch nicht mehr absolute Spitzenklasse ist.

Wenn ich aber wie gesagt heute nochmal so viel Geld oder noch mehr in eine neue High-End-/Enthusiasten-Karte stecken würde, würden mich "nur" 4GB (also dem selben Stand wie vor 1,5 Jahren die Hawaii-Karten) zumindest erstmal etwas zum Nachdenken bringen.
Vielleicht stellt sich in den Praxis-Tests heraus, dass das bei Fiji kein Problem ist. Dann ist alles gut. Aber das vorab einfach vom Tisch zu wischen, halte ich für verkehrt.

Wenn die Fiji-Karten allerdings für ca. 500€ weggehen, nehme ich meine Bedenken sowieso zurück. Dann könnte ich verstehen, dass man, um diesen Preis zu erreichen, am VRAM sparen musste. Als Konkurrent für 980/970 müsste sie nicht mehr VRAM haben.
 
Krautmaster schrieb:
ich hoffe innig dass sich die 375W auf ne DualGPU also die VR Variante beziehen, 2x Fiji mit etwas weniger Takt zb.

Die Karte kann laut Spezifikation 375W ziehen (150W je 8pin Stecker und 75W über PCIe Slot, der aber bei den starken Karten gar nicht genutzt wird). Meine R9 290 Vapor X hat auch 2 x 8pin Stecker und zieht gerade mal 250W im Furmark.

Woher also schon wieder die 375W Verbrauch kommen ist mir schleierhaft.
 
Xanta schrieb:
COD AW 7GB ahaha :D :D :D

@ Über mir, das ist die normale 390X und nicht Fiji, die hat 2x8Pin Stecker.
Außerdem gibts keine Custom Karten beim Start.

Fiji soll der Chip sein, 390X eine Grafikkarte....finde den Fehler.
 
PiPaPa schrieb:
Das Amüsante wird doch sein das diejenigen die sich - falls Fiji mit 4GB kommt - darüber sich auslassen werden, das dies viel zu wenig sei, aber erst vor wenigen Wochen noch die 3,5 + 0,5 GB der GTX970 als nicht so dramatisch hingestellt haben, weil ja eh das Speicherlimit bei den wenigsten Spielen greift.

Das Spiel wurde aber zu zweit gespielt, genauso wurde auch behauptet der Speicher würde schon bald limitieren und sei nur für FULL HD zu gebrauchen. (wenn überhaupt) Natürlich kam dies eher von AMD Seite.

Außerdem kann man das schlecht vergleichen, da Fiji dann doch etwas schneller sein sollte.
 
Aktie steht sogar nur bei 2,06 € also jetzt ein Optionsschein drauf z.B.

HSBC Trinkaus & Burkhardt AG Call 08.01.16 AMD 2,5

aber ich trottel steck mein spielgeld ja heute nur noch in Hardware :D
1999-2009 war das noch anders
 
Geld allein, macht nicht glücklich...;-) Ich guck mir das mal von weitem an, die Entscheidung ist schon getroffen!
 
PiPaPa schrieb:
Also vor 8 Monaten waren noch die 4GB der 970/980 zukunftssicher.
Vor 3-4 Monaten als herauskam das die 970 nur 3,5 + 0,5GB hatte, war diese Karte immer noch für die Zukunft gewappnet.

Aber jetzt in 2 Wochen wird eine mögliche 4GB Karte plötzlich nicht mehr zukunftssicher sein?
Ich frage mich gerade inwieweit die Definition "zukunftssicher" bei AMD und nvidia sich da bei einigen Unterscheiden.:freak:

Dies bedeutet wohl das diejenigen die noch in den letzten Wochen weiterhin fleißig eine GTX970 empfohlen haben, anstatt einer 290X mit 8GB ganz schön gepennt haben müssen...
Oder wie oder was?

Ach nein, jetzt ist die 980Ti da, die hat 6GB... Da hat sich sofort alles geändert...

Relevant ist nur der Fakt, dass keiner weiß, was die Zukunft bringt. Selbst wenn ich jetzt eine
Karte mit 4,8,16 GB Speicher baue, ab einem bestimmten Zeitpunkt wird das einfach zu wenig
sein. Noch relevanter ist einfach der Fakt, dass in den meisten Fällen nicht der Speicher, sondern
der Chip limitieren wird und es daher egal ist, wieviel Speicher dann gebraucht / genutzt wird.

Die sollten es wie bei der S3 Virge damals machen, wo man (damals 1MB) Speicherchips noch
einfach nachstecken konnte. Das war super. Hat aber auch damals nix an der lahmen GPU geändert.
 
Volker schrieb:
Hmm, woher hast du denn all diese Sachen - auch hier? Von der Luxx-Meldung stimmt vieles nicht, wir wissen ja auch mehr als wir sagen. Gerade die Leistungsdaten.
[...]
650 ist schonmal nen guter Tipp. Schwirrt hier auch auf der Messe rum, aber natürlich Dollar. Damit wäre sie exakt preisgleich wie 980 Ti. Und was war bisher bei gleichem Preis immer? Richtig, AMD schneller. Aber auch das ist natürlich Subject to change, vor allem weil sie ja noch am BIOS und den Treibern schrauben.
Also ich finde ja, Volker deutet es schon ziemlich deutlich an, und zusammen mit dieser AUssage:

Wir haben die Headline und Einleitung angepasst, da AMDs Matt Skinner nicht von der schnellsten Grafikkarte sprach, sondern dem weltweit flottesten Chip: "HBM enables us to build the fastest GPU in the world", sagte der Vizepräsident wortwörtlich auf der AMD-Pressekonferenz.
http://www.golem.de/news/radeon-fur...nellsten-grafikkarte-der-wel-1506-114431.html

kann man schon davon ausegehen, dass Fiji wohl mindestens genauso schnell ist wie der GM200.

Btw, schon erstaunlich wie winzig diese HBM Chips sind! Auffällig auch, dass Nvidias große Chips, im Gegensatz zu AMD, quadratisch sind. Wohl auch ein Zeichen dafür, dass die Architekturen nicht vergleichbar sind. Seht euch zB Tonga und GM204 an. Oder Fiji und GM200.
 
Also, wem es noch immer noch nicht klar ist....Hardware/Consumer Electronic & Zukunftsicher...das passt nicht! Ich werd mein Sys ( +8 GB und 980ti) bis Anfang 2017 betreiben und das ist schon ( auf Mobo und CPU bezogen) eine Aussnahme!
 
Zurück
Oben