News Fiji einzig neue GPU der Radeon-R9-300-Serie

Relaxo32 schrieb:
Ich denke nicht, dass die 380(x) für 220-250€ Anfangs zu kaufen sind. AMD steht ja unter keinem Zugzwang so richtig, zwar sind die GTX 970/980 sparsamer, aber mit dem neuen Grenada Chipsatz (verbesserter Hawaii) dürften die Karten Leistungstechnisch zu den Maxwells aufschließen (immerhin schlagen sich die 290er auch nicht schlecht gegen die GTX 970/80) und AMD als Preis sicherlich 275-300€ ansetzen.

Na dann schau mal was eine 290 /X aktuell kostet.:freaky:
 
SchaGur schrieb:
Wie kann AMD nur so failen?

Was ist daran fail? Es kommt ein neuer Chip -> Fidji. Mehr weiß man noch nicht (offiziell). Zudem ist es auch auf der grünen Seite völlig normal, das man alte Techniken unter neuem Label aufwertet, speziell im Notebook-Bereich.

Aber was soll man von einem User erwarten, der ein "bestimmtes" System in der Sig stehen hat? Mehr als trollen kommt da nicht. Wenn die geposteten Benches wahr sind, dann ist Fidji ein Hammer.

Wolfsrabe schrieb:
Einzig für diesen Anflug von geistiger Diarrhoe angemeldet? Daumen hoch!

Der User "Missgeburt" hat sich schon öfter hier angemeldet und wurde immer wieder gebannt. Muss ein ganz extrem "grünes Männchen" mit Geltungsdrang sein :)
 
Necareor schrieb:
@pipip: Ich stehe wohl gerade auf dem Schlauch... wofür steht FSR?

Es heist SFR, ich hatte das vorhin mit dem Smartphone geschrieben ^^

https://www.computerbase.de/2015-02/directx-12-nimmt-amd-mantle-die-grundlage/

Auf CB gibt es leider nur sehr wenig zu lesen, da muss man leider auf andere Seiten ausweichen.
Auch auf Multi-GPU-Systemen soll DirectX 12 einen Vorteil von Mantle bieten: Die Unterstützung des Split-Frame-Rendering-Verfahren (SFR). DirectX 11 unterstützt hingegen nur Alternate Frame Rendering (AFR). Bei AFR rendert jede GPU abwechselnd ein vollständiges Bild, bei SFR teilen sich die GPUs dagegen die Arbeit an einem Bild auf. Der Einsatz von SFR bietet Vorteile beim Input Lag und setzt nicht mehr voraus, dass alle Grafikkarten dieselben Daten im Speicher halten.

Solche News bekommt man dann gar nicht, leider. Wahrscheinlich ist da zu wenig Spekulation möglich
http://www.pcgameshardware.de/Direc...ungsplus-unveroeffentlichte-AMD-GPUs-1151144/
Demnach habe man einen Test mit einer bisher "unveröffentlichten GPU" gemacht, die unter DirectX 11 13 Fps erreicht habe und unter DX12 120 – ein Plus von über 800 Prozent. Vermutlich kam der hauseigene Star-Swarm-Benchmark zum Einsatz, der bekanntlich schon eine DX12-Implementierung erfahren hat.

Interessant ist, dass er zu Beginn von einer einzelnen GPU gesprochen hat. Auf die Frage hin, was der größte Vorteil von DirectX 12 sein wird, wurde zudem nicht die verbesserte CPU-Performance genannt – und das, obwohl man mit Star Swarm das Draw-Call-lastigste Szenario überhaupt abliefert, das am meisten von DX12 und auch Mantle profitiert. Vielmehr sprach er an, dass man Multi-GPU-Konfigurationen wie eine einzelne Grafikkarte ansprechen kann (Stichwort SFR). Rein spekulativ könnte man das Ganze mit den Vermutungen in Zusammenhang bringen, dass AMD bei seinem kommenden Flaggschiff auf eine Dual-GPU-Lösung setzen könnte.

... dass es auf der GDC Anfang März "großartige Neuigkeiten" von AMD geben werde.... Dass der Stardock-CEO nun aber schon neue GPUs testen ....


http://www.pcgameshardware.de/Unity...os/Engine-physikbasierte-Shader-Demo-1151160/
Die nächste Engine die übrigens GPGPU untersützt, dieses mal soger eine open source Engine.



WC_Ente
Wichtig ist, dass sowohl AMD mit Mantle, als auch MS mit DX12 verstärkt von SFR spricht. Interssant wäre, wie sich SFR nämlich mit HBM Speicher verhält. Eventuell hat der schnelle Speicher hier größere Vorteile und hat nicht so hohe Performance hust* Balken-Einbrüche als ob man das selbe auf einer GDDR5 Karte verwenden würde.
 
Zuletzt bearbeitet:
Simanova, ach dich kenn ich noch aus dem anderen Thread, du bist einer dieser religiösen Verfechter ;)
Gerne zerstöre ich deine Welt:

- Leistungstechnisch nehmen sich die 290X und die GTX970 nichts mehr. Benches mit alten Treibern oder dem Referenz-Design der R290X sind null und nichtig, da niemand sowas kauft oder gar ohne Umbau verwendet.
- Temperatur: Da hast du recht, die 290X wird wärmer als die GTX970/980. Ob das den Auftauprozess von Tiefkühlerbsen auf dem Küchentisch beschleunigt bleibt fraglich.
- Stromverbrauch: Richtig! Die 2,5 Jahre alte Architektur der 290X hält nicht mit dem 6 Monate alten der GTX970/980 mit. Am Besten gleich mit ner Zeitmaschine zurück und denen das sagen.
- DirectX12: http://www.polygon.com/2015/1/22/7874793/directx-12-wont-require-a-new-graphics-card-after-all
Und natürlich hat Nvidia noch nie dreißt bei DirectX Kompatibilität gelogen .. Oh warte, doch haben sie ;)

mfg,
Max
 
Zuletzt bearbeitet:
pipip schrieb:
Solche News bekommt man dann gar nicht, leider. Wahrscheinlich ist da zu wenig Spekulation möglich
http://www.pcgameshardware.de/Direc...ungsplus-unveroeffentlichte-AMD-GPUs-1151144/
Ich packe mal die Spekulazius Kekse aus:
Damit wäre ja theoretisch ein Verbund aus 8 Grafikchips möglich (3,5*1.5 als Ergebnis der Skalierung), ohne dabei schlechtere FPS verteilungen als mit bisher 4 Chips zu erreichen, bzw. 4Chip Multi-GPU könnte damit mehr 'massentauglich' werden, da je 2 Chips SFR renden und beide gruppen machen das dann abwechselnd:evillol:

Das wäre durchaus ne Positive Entwicklung, auch was die Leistung für 12K Gaming anbelangt.
 
pipip schrieb:
Bei AFR rendert jede GPU abwechselnd ein vollständiges Bild, bei SFR teilen sich die GPUs dagegen die Arbeit an einem Bild auf.

Das würde ja rein theoretisch auch das Problem der Mikroruckler nochmals in Angriff nehmen, wenn ich das richtig verstehe, oder?
 
Tronx schrieb:
Ich hoffe wirklich das in diesem Jahr noch eine Grafikkarte auf den Markt kommt die auch 21:9 3440x1440 ordentlich befeuert. Ob dann Mehrverbrauch, Wakü, etc ist erst mal egal....Freue mich schon auf die Tests.

Wenn die gezeigten Benchmarks und die +% an Leistung kein Blödsinn sind, dann schafft die 390x das.
Denn auf dieser Auflösung zocke ich ja, allerdings mit 2x 290x

Wenn dem so ist, knall ich mir 2x rein und Downsample den Rest auf 4K hoch. Dann kann mich die Stromspar-Fraktion im High-End mal gewaltig den Buckel runter knattern. :P
 
Zuletzt bearbeitet:
Necareor

Ja, das wäre der Fall. Theoretisch könnte AMD dann auch kleinere Mittelklase GPUs als Dual GPU auf kleinen PCBs dank HBM auf den Markt bringen. Eventuell bricht die Performance mit SFR in Vergleich zu AFR durch HBM auch nicht so schnell ein.

Man wäre eigentlich dort, wo 3dfx damals wäre. Glide => Idee einer low level API und multi GPU-Karten.
Daraus wurde nichts mehr, als NV 3dfx aufgekauft hatte um einen Konkurrenten weniger zu haben.
 
Pack dazu noch ein neues eDP 1.4a Panel: https://www.computerbase.de/2015-02/edp-1.4a-unterteilt-display-panels-in-segmente/
Außerdem soll mit eDP 1.4a die Möglichkeit zur partiellen Aktualisierung (partial update) von Bildinhalten „Verfeinerungen“ erfahren haben. Dies ist eine Funktion der schon mit dem Vorgänger eingeführten Technik Panel Self Refresh (PSR). Partial update ermöglicht dem Grafikprozessor, nur jenen Teil des Displays zu aktualisieren, dessen Bildinhalt sich seit dem Update des letzten Bildes geändert hat. Eine bereichsweise statt flächendeckende Aktualisierung des Bildinhalts soll helfen, die Leistungsaufnahme weiter zu verringern, was im Mobilsegment eine große Rolle spielt.
Und jede GPU kann an ihrem eigenen Stück arbeiten ohne dass es zusammen gesetzt werden muss vor der Ausgabe. Keine Abhängigkeit, ausser der Wahrnehmung des Spielers.
 
Necareor schrieb:
Das würde ja rein theoretisch auch das Problem der Mikroruckler nochmals in Angriff nehmen, wenn ich das richtig verstehe, oder?

Ja diese gäbe es nicht mehr genauso bei SuperTilling,
Produziert aber nicht den Längsten Balken;)


pipip schrieb:
WC_Ente
Wichtig ist, dass sowohl AMD mit Mantle, als auch MS mit DX12 verstärkt von SFR spricht. Interssant wäre, wie sich SFR nämlich mit HBM Speicher verhält. Eventuell hat der schnelle Speicher hier größere Vorteile und hat nicht so hohe Performance hust* Balken-Einbrüche als ob man das selbe auf einer GDDR5 Karte verwenden würde.

Ja seltsam wieso jetzt aufeinmal,
Ich nutz bei Multi Gpu immer SuperTilling;)

Ja das läuft einwandfrei:D
 
WC_Ente

Weil die News mit den 900% wahrscheinlich zwei Fiji Grafikkarten mit HBM Speicher sind, oder vllt sogar schon ein Prototyp einer Dual GPU Variante.
Ich glaube wenn es um SFR geht, könnte HBM vllt einen positiven Effekt haben, vllt bricht da die Performance dank HBM nicht so stark ein. AFR war ja bisher immer schneller und SFR langsamer. Das könnte ja vllt sogar an GDDR5 bzw am SI liegen.
Somit wäre dann ein Grund für AMD gegeben, wieso man bereits auf HBM setzten kann, weil der Speicher für Dual GPU Modelle gut geeignet sein könnte.

Man stelle sich vor, AMD müsste nur mehr zwei Chips entwickeln und könnte dafür 8 Karten daraus machen. (jeweils 4 single und jeweils 4 dual GPU Modelle).
Das wäre möglich, wenn die Dual GPU Modelle sich wie Single GPU verhalten und keine Micro-Ruckler oder ähnliches haben.


Ist übrigens reine Spekulation was ich hier schreibe. Man sollte mal abwarten, aber vllt kommt da mit HBM doch noch mehr Interessantes.
 
Zuletzt bearbeitet:
Necareor schrieb:
Das würde ja rein theoretisch auch das Problem der Mikroruckler nochmals in Angriff nehmen, wenn ich das richtig verstehe, oder?
Ist ja auch schon ausgiebig getestet worden:
http://www.extremetech.com/gaming/1...ti-gpu-scaling-in-civilization-beyond-earth/2
In the chart above, you can see the R9 295X2 (Mantle), the GTX 980 (Direct3D) and the R9 290X (single-GPU, Mantle). AMD claimed that it would deliver equivalent frame times with a dual-GPU solution as compared to a single GPU. Did it? We’d say it very nearly did so
 
@pipip
Warum auch nicht, Wenn da was weitergeht kann ja nicht Schaden
Ich denke die Anbindung war weniger das Problem.
Eher die Latenz auf non Dualgpu

Aber der Effekt von SFR/ST war doch immer der:
Weniger Leistung als mit AFR, Aber dafür z.b. keine MR und echte 8GB aus 4+4;)
 
Zuletzt bearbeitet:
evilnear schrieb:
kann sich noch wer daran erinnern wie nvidia ne gefühlte ewigkeit die gesammte mittelklasse nur aus aufgüssen aufgestellt hatte? die 760 und 770 haben sich doch auch prima verkauft.

Der GK104 war aber von vornherein als Mittelklasse-Chip konzipiert worden, Tahiti und Hawaii nicht.
 
BlauX schrieb:
Wenn die gezeigten Benchmarks und die +% an Leistung kein Blödsinn sind, dann schafft die 390x das.
Denn auf dieser Auflösung zocke ich ja, allerdings mit 2x 290x

Wenn dem so ist, knall ich mir 2x rein und Downsample den Rest auf 4K hoch. Dann kann mich die Stromspar-Fraktion im High-End mal gewaltig den Buckel runter knattern. :P

Ich komme mit meiner 290x Wakü an die Grenze, das erste Spiel was mit niedrigen Einstellungen ruckelt ist Dying Light und ROMII. 2 Grakas mag ich mir nicht in den Rechner stecken.
 
kisser schrieb:
Der GK104 war aber von vornherein als Mittelklasse-Chip konzipiert worden, Tahiti und Hawaii nicht.

Aha, lass mich raten, das weißt du aufgrund es SI ?

Ein Hawaii Chip hätte nämlich mehr Sinn als Tahiti gemacht, der am Anfang auch mehr Paperlunch war, stimmts ?
Und NV hat den GK 100 oder 110 nicht statt dem GK104 auf den Markt gebracht, weil man Anfangs Probleme mit 28nm Prozess hatte, sondern weil AMD so schwach war :rolleyes:

Das weißt du natürlich, weil NV gesagt hat, sie hätten von AMD mehr erwartet, ja wahrscheinlich Hawaii.
 
SFR war schon mit GDDR4 bzw. 3870 möglich bzw. mit LP karten ddr3 geht's auch^^
----------------------------------------------------------------------------------------------------


Aufjedenfall wo es sich lohnt anstatt AFR, SFR oder ST zu nehmen ist eine Apu + LP Karte;)
 
Zuletzt bearbeitet:
kisser schrieb:
Der GK104 war aber von vornherein als Mittelklasse-Chip konzipiert worden, Tahiti und Hawaii nicht.

Und dann ist er zu schnell geworden und sie mussten ihn zu einem Highend-Preis verkaufen - armes Nvidia. Klar dass sie meinten da muss man mal dran rum schnipseln - effizient das ganze. Keine Feature, kein Stromverbrauch sage ich da.
 
Zurück
Oben