News AMD Radeon: Offiziell: Fiji-GPU abgelichtet, Start am 16. Juni

max_1234 schrieb:
Da gehts so gut wie nur auf GPU, die CPU ist dem Spiel absolut egal.

Jaaaaa, habs ja schon lange korrigiert :D
 
one2know schrieb:
Ich persönlich für mich habe einfach zur Zeit das Gefühl im NVIDIA "Lager" weitaus besser aufgehoben zu sein als bei AMD

genau so und nicht anders ist es. Du bist mit dem Satz aber schon ein Fanboy von Nvidia laut der Community. kann dir eigentlich egal sein, mich regen solche dinge ebenfalls nicht auf.

Ich werde ständig Nvidia Fanboy genannt von der Community, sei es weil es nach dem GTX 970 "desaster" keine amd alternative für mich gab und ich auf die gtx 980 umgestiegen bin, oder sei es weil ich jetzt auf die gtx 980ti umsteige beim evga stepup... Ein Nvidia fan ist man immer. Und in den Nvidia beiträgen sind eben die anderen die AMD Fans .. Grafikkartendiskussionen sind wie Kindergarten, blos mit erwachsenen :)
 
Also wenn die Top GPU von AMD wirklich langsamer als die 980 Ti ist, ist das wirklich ne lachnummer meiner meinung nach. Da hätte ich schon ein wenig mehr erwartet, schade eigentlich.
 
@Niceguys: Aber es ist doch tröstlich zu wissen dass man jederzeit vom nVidia Fanboy zum AMD Fanboy werden kann (und umgekehrt) indem man einfach ein anderes Produkt kauft :D . Das bringt etwas Abwechslung in die Sache ;)
 
Niceguys schrieb:
Ein Nvidia fan ist man immer. Und in den Nvidia beiträgen sind eben die anderen die AMD Fans ..

Und was ist mit einem Nvidia Besitzer, der sich über AMD Karten informiert, weil er evtl. demnächst 'ne AMD kauft ?
Bin glaube ich eher ein NvAMDia-Fan.
 
Zuletzt bearbeitet von einem Moderator:
AnkH schrieb:
...EDIT: das mit dem 4.6GHz und mehr FPS ist Blödsinn, hab da was mit pCars verwechselt. Danke etoo für den Hinweis.
Genau & Du hast das mit Project Cars verwechselt. Da ist man im Bereich FPS-Gewinn für jedes zusätzliche CPU-Hertzchen dankbar. Vorausgesetzt, man hat keinen FX-Prozi & die GPU-Settings sind nicht allzu straff angezogen. :evillol:
Mal schauen, wie dort die kommende Insel + Ableger, mit neuen Treibern, performen werden ... :D
 
Und was ist mit einem Nvidia Besitzer, der sich über AMD Karten informiert, weil er evtl. demnächst 'ne AMD kauft ?
Bin glaube ich eher ein NvAMDia-Fan.

Word !!!
 
DocWindows schrieb:
@Towatai: Die Erfahrung sollte dich aber auch gelehrt haben dass AMD schon bei DX10 und DX11 theoretische Vorteile hatte, weil sie mehr Features implementierten, diese Vorteile aber nichts an der Marktsituation geändert haben.
Ja, wenn nvidia auch einfach DX Pfade rauspatchen lässt ist das auch keine Kunst.

Jaja, die Mär von dem defekten Renderpfad der dann nicht behoben konnte und einfach komplett entfernt wird... :rolleyes:
Ich wette wenn nvidia DX10.1 gekonnt hätte, hätte Ubisoft nicht einfach entfernt.
 
Also bei Stalker Clear Sky gab es mit DX10.1 ja einen Nutzen & das reicht doch.^^ Ubisoft ist ja bekanntlich "befangen" & das darf & kann man auch nicht erwarten ... :p
 
Herdware schrieb:
Wobei man Nvidia Innovationen nicht ganz absprechen kann.
Z.B. kommt dynamisches Synchronisieren der Bildfrequenz (G-Sync) von denen. Da hat AMD mit FreeSync nur reagiert.
Ich bin immer noch der Meinung und kann mir vorstellen das nvidia hier einfach die VESA übergangen hat.

AMD und nvidia sind beide VESA Mitglieder, wie viele andere auch, und irgendjemand hat den entsprechenden Vorschlag eingereicht. Wer das nun war weiß ich nicht.
Natürlich hat nvidia auch die Idee zu Gesicht bekommen und hat einfach ohne auf die Entscheidung des Konsortiums zu warten schnell einen teuren FPGA Chip programmiert. Warum setzen sie scheinbar bis heute auf einen teuren FPGA und verwenden keinen ASIC?

Oder warum konnte AMD relativ schnell eine Alternative bzw den Ansatz dafür aus dem Arm schütteln?
Und jetzt nutzt nvidia das selbe Verfahren der eDP Panels in Notebooks um G-Sync dort ohne Modul.
 
PiPaPa schrieb:
Ja, wenn nvidia auch einfach DX Pfade rauspatchen lässt ist das auch keine Kunst.

Jaja, die Mär von dem defekten Renderpfad der dann nicht behoben konnte und einfach komplett entfernt wird... :rolleyes:
Ich wette wenn nvidia DX10.1 gekonnt hätte, hätte Ubisoft nicht einfach entfernt.

Hätte hätte Fahrradkette. Immer wieder schön diese Urban Legends die sich trotz nicht vorhandener Beweise über teils Jahrzeihnte halten können.

Mir gehts aber gar nicht um dieses eine Spiel, sondern generell darum dass das Beherrschen höherer Featurelevels nichts gebracht hat. Oder wurden wegen DX10.1 mehr Grafikkarten verkauft? Muss ja noch mehr Spiele gegeben haben die das genutzt haben.
 
Ich hoffe bloß, dass man sich bei der Entwicklung toller neuer Technik nicht schon wieder ins eigene Bein schießt. So ein bisschen wie 8800GTX vs. 2900XT damals: Die 2900XT hatte sogar schon Tessellation-Einheiten im Chip drin, die überhaupt nicht genutzt werden konnten, weil das erst mit DX11 kam. Dabei war das gerade die erste DX10-Karte. Ganz tolle Technik, brachte nur rein gar nichts :D

Ich hoffe nun wirklich, dass das dieses Mal nun anders kommt. HBM ist nun doch ein Wagnis, solche Pionierleistungen können schiefgehen - müssen aber nicht.

Für mich wird es diese Generation jetzt auch auf was neues herauslaufen - nur bin ich momentan noch am überlegen, ob zwei 290X nicht doch sinnvoller sind als eine 980Ti/Fury. Nach dem letzten Computerbase-Test haben die 290Xer gegenüber der 780Ti ja doch ganz schön zulegen können: https://www.computerbase.de/2015-05...h/2/#diagramm-rating-2560-1440-hohe-qualitaet
 
@hookii

Du bist genauso oberflächlich wie die Jünger oder Fanboys.

Bildest Dir ein Urteil an meiner Anzahl von 15 Beiträgen ohne gesehen zu haben wie lange, wie oft und was ich gepostet habe.

Immerhin bestätigst du Vorurteile! Finde ich gut :evillol:

Einen haben wir schonmal :D

Immerhin! Wo bleibt NVIDIA???:lol:
 
Zuletzt bearbeitet: (AMD FANATIC ;))
PiPaPa schrieb:
Ich bin immer noch der Meinung und kann mir vorstellen das nvidia hier einfach die VESA übergangen hat.

AMD und nvidia sind beide VESA Mitglieder, wie viele andere auch, und irgendjemand hat den entsprechenden Vorschlag eingereicht. Wer das nun war weiß ich nicht.
Natürlich hat nvidia auch die Idee zu Gesicht bekommen und hat einfach ohne auf die Entscheidung des Konsortiums zu warten schnell einen teuren FPGA Chip programmiert. Warum setzen sie scheinbar bis heute auf einen teuren FPGA und verwenden keinen ASIC?

Oder warum konnte AMD relativ schnell eine Alternative bzw den Ansatz dafür aus dem Arm schütteln?
Und jetzt nutzt nvidia das selbe Verfahren der eDP Panels in Notebooks um G-Sync dort ohne Modul.

So wie ich das sehe nutzen beide Techniken das gleiche Feature das bereits Teil des eDP Standards war.
Damit sollte das Bild nur aktualisiert wenn auch ein neues Bild kommt. Seinerzeit gedacht um Strom zu sparen und für die Bild Synchronisation gewissermaßen missbraucht. Da die zugrunde liegende Technologie aber bereits Teil des Standards war kann nvidia keine Ansprüche darauf anmelden. Dadurch konnte es AMD meiner Meinung nach zumindest vom Funktionsprinzip her kopieren. Da herkömmliche Monitore dieses Feature aber nicht nutzten (beim Netzbetrieb in der ursprünglichen Form irgendwie nutzlos) mußte ein neuer Kontrollchip her. Nvidia hat dafür einen eigenen Chip gebastelt und bietet das als proprietäres Feature an, AMD hat sich mit den Chipherstellern kurzgeschlossen, wodurch es für alle nutzbar ist. Das die Entwicklung eines entsprechenden Chips Zeit kostet ist wohl jedem klar, nvidia hatte hier lediglich einen Zeitvorteil.
 
Wie kann ein Foto eines Chips so viele Kommentare erzeugen?
 
Masterchief79 schrieb:
Ich hoffe bloß, dass man sich bei der Entwicklung toller neuer Technik nicht schon wieder ins eigene Bein schießt. So ein bisschen wie 8800GTX vs. 2900XT damals: Die 2900XT hatte sogar schon Tessellation-Einheiten im Chip drin, die überhaupt nicht genutzt werden konnten, weil das erst mit DX11 kam. Dabei war das gerade die erste DX10-Karte. Ganz tolle Technik, brachte nur rein gar nichts :D

Gerüchten zu folge sollte die Tesselation bereits Teil von DX10 werden, flog aber wieder raus (warum auch immer) und man sollte nicht vergessen das der R600 der 2900XT noch von ATI entwickelt wurde. Nutzbar war die Tesselationseinheit wohl schon aber abseits der Whiteout Techdemo kam sie wohl nie zum Einsatz.
 
Herdware schrieb:
Es wird wohl auch sehr stark vom jeweiligen Spiel/Benchmark abhängen.

Und obendrein werden mit DX12 und den ersten richtigen DX12-Spielen die Karten sowieso nochmals ganz neu gemischt. Das wird natürlich zum Release der Karte nur ganz schwer abzuschätzen sein.

ich denke das wird wenige % ausmachen, wenn überhaupt. Ich glaube auch dass AMD da etwas energischer rangeht, auch wenn MS das DX12 Zeug aktuell auf NV Karten zeigt. Ich erwarte nicht dass DX12 die Schere aufmachen wird, Karten differenziert. Dazu müsste man die DX12 API wieder direkt ins Limit treiben was man wohl erst in einigen Jahren machen wird. Es ist ja eher ne Bottelneck Reduktion...die aktuell bei AMD mehr vorhanden ist als bei NV, ergo profitieren erstere augenscheinlich in Games die heute eher limitieren mehr...
 
Wadenbeisser schrieb:
Gerüchten zu folge sollte die Tesselation bereits Teil von DX10 werden, flog aber wieder raus (warum auch immer) und man sollte nicht vergessen das der R600 der 2900XT noch von ATI entwickelt wurde. Nutzbar war die Tesselationseinheit wohl schon aber abseits der Whiteout Techdemo kam sie wohl nie zum Einsatz.

Sicher war da auch ein wenig Zufall mit von der Partie, aber das Statement bleibt: Ich hoffe bloß, die landen mit der Fury jetzt einfach mal wieder nen richtigen Volltreffer und der HBM-Speicher zahlt sich aus. Würde AMD gut tun, auch wenns nur nen Nischenmarkt ist.
 
Zurück
Oben