CryztalBT schrieb:
Dann übertaktest du die GTX980ti halt um 40% (ja, das geht, hab selbst eine für einen Kumpel damals eingebaut), da haste dann statt 7TFLOPS fast 10TFLOPS... und trotzdem war sie noch kühler als eine Fury, die kaum übertaktbar war.
Mal abgesehen davon, dass 40% sicher nicht bei
allen 980 Ti möglich ist und man seine Garantie verliert, ist es doch wohl müßig eine extrem OC Version einer 980 Ti mit einer stock settings Fury X zu vergleichen...wie kommst du auf so was?!
Unabhängig davon verbraucht dann die 980 Ti mehr als eine Fury X. Die maximale Verlustleistung einer 980 Ti wird mit 250W angegeben, die einer Fury X mit 275W. Das Maxwell recht effizient ist und in Spielen selbst bei hoher Auslastung i.d.R. unterhalb dieses Wertes bleibt, ändert nichts daran, dass bei Volllast eine 980 Ti kaum effizienter ist als eine Fury X und mit 40% OC ganz sicher mehr verbrauchen wird.
Was die NVIDIA-Karte "rettet" (wie immer) ist deren Software (und eventuell noch Anwendungen, etwa Spiele, die auf deren Hardware optimiert sind). NVIDIA schneidet gerade in DX11 sehr gut ab und deren Treiber holen erstaunlich viel aus der vergleichsweise geringen Rohleistung.
CryztalBT schrieb:
Abgesehen davon: Wen jucken die FLOPS, wenn die Leistung am Ende trotzdem nicht passt? Erinnert mich an die Amis, die immer mit ihren angeblichen 800PS Mustangs ankommen, die nicht den Hauch einer Chance gegen einen 560PS Porsche Turbo S haben.
DU hast damit angefangen, AMD eklatante Mängel in der Fertigung und Architektur nachzusagen. Das ist Quark und um dies aufzuzeigen, vergleicht man Hardware anhand seiner Eckdaten: Rohleistung, maximale Verlustleistung, Fertigungstechnik, ...
Für eine reine Betrachtung der Hardware & Fertigung von AMD macht es keinen Sinn, das Gesamtpaket Hardware + Treiber + Spiel (+ besonders DX11) zu betrachten, welches in der Tat auf AMD-Karten langsamer / ineffizienter ist als bei NVIDIA.
Das ist ähnlich wie im professionellen Segment: AMD hat die größere Rohleistung bei geringerem Preis und häufig zumindest ähnliche Energieeffizienz.
Trotzdem findet AMD kaum Verwendung bei GPGPU, weil es weniger libraries für OpenCL gibt und die vorhandenen langsamer laufen (=weniger aus der Rohleistung machen) sowie mitunter instabiler laufen, als die Äquivalente von NVIDIA, die NVIDIA höchst selbst entwickelt.
Macht man sich die Mühe und schreibt sowie optimiert selbst Sachen in OpenCL läuft das wunderbar und sehr performant. Macht nur niemand, weil es logischerweise sehr mühselig und damit kostenintensiv ist. Im GPGPU-Bereich sind wenige Entwicklerstunden ja schon teurer als eine komplette FirePro oder Tesla. Und da NVIDIA mit zig CUDA-libraries ewig viel extrem effizient auf ihrer Hardware als fertig benutzbare API zur Verfügung stellt, wird eben auch dort i.d.R. NVIDIA gekauft.