News GeForce GTX 980 Ti als neues Flaggschiff im September

Herdware schrieb:
Auch OpenCL und Co. muss nicht zwangsläufig bedeuten, dass auf der GPU gerechnet wird. Die Frage ist, ob die Berechnungen so komplex sind, dass die CPU (trotz SSE, AVX usw.)
Lies den Absatz bitte nochmal genauer in meinem Beitrag. Ich hatte oben gerade dies dazu editiert bevor ich deine Antwort gelesen habe:
Kombiniert man nun eine Intel CPU ohne FP64 unter OpenCL und eine Titan X ohne DP-Einheiten, verbleibt somit gerade mal 1/32 FP64 Leistung die durch die Titan bereitgestellt wird.
In dem Artikel ist beschrieben warum Intel keine FP64 Leistung hat unter OpenCL.
Problem is that Intel only enables fp64 for Direct Compute and NOT open CL, which is not the case with AMD.
 
@Daedal
Das kingt dann aber mehr nach einem Defizit in Intels OpenCL-Implementation, die auf der CPU kein 64Bit-Floatingpoint zulässt. Was allerdings schon ziemlich erbärmlich ist, denn 64Bit-FP bot seinerzeit schon MMX.

Die logische Lösung dafür scheint mir zu sein, dass Intel an seiner OpenCL-Umsetzung feilt und dass die Spieleentwickler bzw. Entwickler von Game-Engines solange gezwungen sind, entsprechende Berechnungen nicht per OpenCL zu implementieren, sondern direkt als nativen Code für die CPU (womit dann SSE, AVX, AVX2 offen stehen).

Auf GPUs auszuweichen scheidet ja sowieso aus, da kaum ein PC-Gamer eine Titan (Kepler und mit aktiviertem DP-Modus) oder gar eine Quadro/Tesla im Rechner hat.
 
Zuletzt bearbeitet:
Wenn du die GPU für Direct Compute nutzen willst wie es unter DX12 vorgesehen ist, dann muss diese auch mit der CPU an den selben Daten arbeiten können: Unified Memory und Context switching. Wenn die GPU da lahmt ist dies eben nicht auslagerbar wie der andere Code und muss CPU-exklusiv markiert werden. GCN hat DP Precision auf allen GPUs die nicht extra aktiviert werden muss. Auch auf APUs, wie ja auch in dem Link von mir ausgeführt wurde. Hier verwenedet StarCitizen ja DirectCompute soweit ich weiss - es ist durchaus möglich, dass OpenCL hier in zukunft einfach keine Rolle mehr spielt durch Vulkan und DX12, doch es bleibt, dass die Anforderungen an die GPU durchaus auch in Games FP64 beinhalten.
 
Zuletzt bearbeitet:
DukePanic schrieb:
Immer das Geheule mit dem Preis. Hier kommt man sich ja wie ein geächteter vor, sollte man sich eine Titan kaufen. Das ist mal wieder typisch Deutsch!
Der eine versauft sein Geld, der andere verraucht es, wieder andere Kaufen sich nur Markenkleider ect... Wenn euch der Preis zu hoch ist, Ok. Stellt aber nicht die potentiellen Käufer als eine Art "Idiot" hin. Jeder hat eben andere Hobbys und Prioritäten.

Diejenigen, die hier am größten rumschreien was den Preis anbelangt, sind vermutlich diejenigen , die für nen Handyvertrag 50€ im Monat berappen ;) Bei so etwas fasse ich mir an den Kopf, aber sicherlich nicht wenn jemand für sein Hobby bereit ist Geld auszugeben.

Und ich fasse mir bei solchen Vergleichen an den Kopf. Und, ja, eine TitanX zu kaufen (d.h. als Gamer ohne Multimonitoransprüche o.ä. "exotische" Szenarien und ernsthaft professionelle Anwender natürlich auch mal außen vor gelassen) hat nun mal wirklich was von Idiotie. Um bei Deinen Vergleichen zu bleiben ist das so als würde man sich beim Rauchen immer gleich die ganze Packung in die Fresse stecken oder bei Markenklamotten drei Hosen übereinander anziehen. Kann man machen, aber bleibt trotzdem Schwachsinn.
Warum? Nun, für 4K reicht die TitanX immer noch nicht wirklich und für 1080p/1440p gibt es wesentlich günstigere, leisere und rundum bessere Alternativen.
Zumal wie andere schon sagten das Argument der "Zukunftssicherheit" keines ist. Es hat historisch nur sehr wenige GPUs gegeben, die wirklich mal eine Weile halbwegs aktuell geblieben sind. Wenn im nächsten Jahr 14nm GloFo (AMD) und 16nm TSMC (nVidia) GPUs vor der Tür stehen, dann ist die TitanX ein teurer Haufen veralteter Elektromüll.
Natürlich muss man vorsichtig sein, wenn nVidia im Zusammenhang mit Pascal von "10-facher" Leistungssteigerung spricht, da dies nur sehr ausgewählte Szenarien betreffen wird, aber es wird sich in beiden Lagern gewaltig etwas tun.
Das ist nächstes Jahr so wie wenn endlich der Korken von der Flasche fliegt. AMD und nVidia haben unter TSMC's Unfähigkeit (und mutmaßlich auch Unwillen) einen High Powered 20nm Prozess ans Laufen zu bekommen sehr gelitten, da R&D-mäßig alles darauf ausgerichtet war. Dann wurde man zum Full Stop gezwungen und dazu, kreativ aus 28nm noch das Allerletzte heraus zu quetschen.
Im nächsten Jahr wird sich der lange ersehnte Quantensprung endlich vollziehen. Dann ist die TitanX der kälteste Kaffee aller Zeiten.

Abgesehen davon erscheint es mir grundsätzlich sinnvoller die GPU regelmäßig zu tauschen als sich für teuer Geld eine Karte zu kaufen und an dieser dann krampfhaft drei, vier, fünf Jahre festzuhalten. Es kommen ja auch immer mal neue Features, die man dann mit seiner alten überteuerten Karte nicht nutzen kann. Zudem macht es für mich wirtschaftlich einfach mehr Sinn:

- Kauf €500 Karte in 2015 -> Verkauf für €250 in 2016 -> Kauf €500 in 2016 - Zwischenstand = -€250 ... und dann jährlich immer so weiter

^ wenn man das jährlich so durchzieht, dann gibt man in vier Jahren ca. €1000 aus und hat aber immer die neueste Technik im PC stecken (und mit Verkauf €250 bin ich eher konservativ rangegangen... die Realität dürfte je nach Modell der Karte eher zwischen €250 und in der Spitze mit ein wenig Glück bis zu €350 liegen).
Der Titan-Käufer, der meint seine Karte reiche nun für vier oder fünf Jahre gibt dasselbe Geld -oder bei €1299 sogar noch mehr- aus, hat aber spätestens nach der Hälfte der Zeit, also schon nach ca. zwei Jahren 'ne olle Kamelle im Rechner am gammeln. Vielleicht mit viel VRAM, aber mit verhältnismäßig schwacher Rohleistung, so dass man sich den VRAM an die Klotür nageln kann. Und nach Ablauf der vier oder fünf Jahre... was kriegen wir dann noch für unsere Titan? €100? Wenn überhaupt...

Aus den genannten Gründen ist die Anschaffung einer Titan in jedem Fall relativ unsinnig. Natürlich kann jeder mit seinem Geld gerne machen, was er will, aber dies ändert nichts an der objektiv sehr fragwürdigen Sinnhaftigkeit einer entsprechenden Kaufentscheidung. Man kann hier ja nicht mal so richtig das "sinnlos, aber geil" Argument bringen wie bei einem Ferrari-Kauf. Denn ob man nun mit einer GTX 980 die 60fps bei 1080p/1440p fährt (für 4K reicht es ja auch mit Titan leider immer noch nicht ganz) oder mit einer Titan ist ja nun wirklich wurscht. Sieht alles gleich aus. (Nochmals: Ich gönne jedem Multimonitor-User seine Titan... ich rede hier immer vom "normalen" Gebrauch).
Letztlich sollte man sich auch schon mal überlegen, ob man diese Preis- und Produktpolitik der Hersteller wirklich unterstützen möchte, denn es ist noch gar nicht sooooo lange her, da hätte jeder hier seinen Kaffee im hohen Bogen ausgespuckt, wenn man von €1000+ GPUs auch nur phantasiert hätte.
 
Zuletzt bearbeitet von einem Moderator:
Moriendor schrieb:
Nun, für 4K reicht die TitanX immer noch nicht wirklich

Echt?
Ich finde die geht recht gut in 4K.
Es hängt also daran wie man "es reicht" definiert.
Was geht denn Deiner Meinung nach nicht?


Mordor Ultra-Settings + FXAA


Lords of the Fallen Ultra Settings


Watch Dogs Ultra-Settings + FXAA


Star Citizen. Okey .... aber das gibts ja auch noch nicht.


BF4 in 4K Ultra-Settings mit FXAA-High


Elite Dangerous Worst Case Ultra Settings FXAA



FC4 Ultra-Settings+FXAA (wer mit 40+ FPS nicht klarkommt kann ja ein paar der Ultra-Features abschalten)



Unity muss man eventuell mit HBAO+ zurückstecken, das ist bis jetzt das untere Ende der Fahnenstange.




Crysis3 auf Hoch und auf Sehr Hoch jeweils mit FXAA


Single-Graka in 4K. <-- man lasse sich das auf der Zunge zergehen. Ich hatte mit dem Black-SLI nicht wirklich viel mehr FPS.

DA:I Ultra Settings allerdings nur PP-AA


Tomb-Raider Ultra Settings




Kommt vom Ultra-Trip runter und genießt die 4K-Auflösung, und schon geht sich das mehr als aus.
Immer dieses "geht nicht, reicht nicht" .... angelesenes Halbwissen, bzw. Benchmarks die mit X-Fach-Antialiasing gemacht wurden, die man vielleicht in FullHD noch braucht, in 4K aber nicht mehr (persönliche Meinung), nur damit es vergleichbar bleibt?
 
Zuletzt bearbeitet:
Moriendor schrieb:
Natürlich muss man vorsichtig sein, wenn nVidia im Zusammenhang mit Pascal von "10-facher" Leistungssteigerung spricht, da dies nur sehr ausgewählte Szenarien betreffen wird, aber es wird sich in beiden Lagern gewaltig etwas tun.

Was heisst hier aufpassen? Das ist schon gar keine Performancenagabe, sondern mal wieder ein typisches Nvidia Rechenbesipiel: 5x Bandbreite+2xBandbreite durch Nvlink ergibt 10x irgendwas.

Nur eben keine 10x Performance oder gar 10x Bandbreite - das wäre wie die LAN Bandbreite zu PCIe dazu zu addieren wenn ich eine Netzwerkkarte rein stecke - Nvidia halt. So wie 2x CPU Leistung 3x GPU-Leistung zusammen 5x Mehr Performance bei den Tegras ergab. ^^
 
der_infant schrieb:
Na hoffentlich kommt die Ti nicht für 500€. Da hätte ich mit der GTX980 wirklich ins Klo gegriffen.

Wenn Sie zwischen Titan X und GTX980 liegt, muss sie für 500€ kommen. Alles andere wäre 1 Jahr nach der GTX980 ziemlich lächerlich.
 
Krautmaster schrieb:
dafür reicht allen Anschein nach auch ein cut GM200 mit recht hohem Takt. 1200Mhz als default zu setzen ist für NV bei Maxwell ja kein Problem, Turbo wie bei der GTX 980 gegen 1300 oder darüber. Die Farge ist ob man wirklich einen Vollbau (quasi identisch zur TITAN X) nimmt oder doch lieber ein cut hochprügelt. Man wird sehen. Auch wird man sehen wie taktbar eine R9 390X ist.

Ich zitiere :
http://www.3dcenter.org/news/hardware-und-nachrichten-links-des-25-maerz-2015
zur GeForce GTX Titan X, mittels welchem Taktraten von 1550/4000 MHz stabil erreicht werden konnten, an Performance abwirft. Unter leider nur einem einzelnen Test (Crysis 3) zog die Performance unter 4K gegenüber der default-Taktung von nVidias neuem Flaggschiff um 29,5% davon – was jetzt leider nicht so eindrucksvoll erscheint, im initialen Overclocking-Test der GeForce GTX Titan X ohne Mod-BIOS auf 1300/4000 MHz erreichte die PCGH schon ein Performanceplus von 21,4% im selben Einzeltest bzw. 23% über ein größeres Benchmark-Feld. Augenscheinlich bremst hier die Speichertakt-Erhöhung von nur 14% den gesamten Übertaktungserfolg aus, denn beim Chiptakt geht es (ausgehend von 1000/1075 MHz) nun wirklich sattsam nach oben. Eventuell würde ein Benchmark unter 2560x1440 einen größeren Übertaktungsgewinn zeigen können, da dort der Einfluß der Speicherbandbreite nicht ganz so groß sein sollte wie unter 4K. Zudem bliebe abzuwarten, was Wasserkühlung noch an dieser Tendenz ändern kann.

Es kann also gut sein, dass das SI der GM200 der Flaschenhals ist, wobei das noch näher getestet werden sollte. Es ist also tatsächlich die Frage, wie gut sich die R9 per Chip OC lässt ,denn ich glaube nicht, dass der HBM Speicher im Vergleich stark "limitieren" wird.
 
@Deadal: Das ist doch Quatsch was du da schreibst...
Wer Programmiert denn eine x86 CPU in Open CL? Macht ja auch Sinn sich den ganzen Overhead anzutun, wenn man auch einfach plain C/C++ programmieren könnte. Nicht mal die GPU wird heutzutage in Open CL programmiert. Von daher ist es auch vollkommen egal, ob Intel da jetzt fp64 unterstützt oder nicht.

Für die Adressierung der Objekte im Raum ist immer noch die CPU zuständig und nicht die GPU. Wenn die CPU mit fp64 arbeitet kann das der GPU sonst wo vorbeigehen.

Nächster Punkt ist. DP ist in 99% aller Situationen komplett unnötig und wird nur verwendet, weil die Entwickler zu "faul" oder zu unfähig sind. Letztlich wäre auch für eine genaue räumliche Adressierung fp64 überhaupt nicht notwendig. Es ist einfacher für den Programmierer, aber dem Spieler fällt kein Unterschied auf. Selbst im wissenschaftlichen Bereich ist fp64 in den meisten Gebieten unnütz. Wird auch nur verwendet weil der Physiker meint er nimmt halt die höchste Genauigkeit und es ist im egal wie das ganze dann in der Maschine bearbeitet wird oder ob es mit fp32 auch gehen würde.

Für die ganzen Beweise von Spielen, bei denen es diese Probleme gibt, gibt es dutzende Gegenbeweise von Spielen, die auch mit fp32 richtig funktionieren. Da gibt's halt den Unterschied zwischen guten Programmierern und Jammerlappen, die gerne für Counterstrike schon 80 GFlops hätten, weil sie zu faul sind ihren Code zu optimieren.
 
SimsP schrieb:
@Deadal: Das ist doch Quatsch was du da schreibst...
Wer Programmiert denn eine x86 CPU in Open CL? Macht ja auch Sinn sich den ganzen Overhead anzutun, wenn man auch einfach plain C/C++ programmieren könnte. Nicht mal die GPU wird heutzutage in Open CL programmiert. Von daher ist es auch vollkommen egal, ob Intel da jetzt fp64 unterstützt oder nicht.
Also wen du es schreibst ist es kein Quatsch, nur wenn ich das schreibe^^
es ist durchaus möglich, dass OpenCL hier in zukunft einfach keine Rolle mehr spielt durch Vulkan und DX12, doch es bleibt, dass die Anforderungen an die GPU durchaus auch in Games FP64 beinhalten.

Den Rest hast du dir zusammengereimt und du solltest nochmal die Quellen lesen die ich verlinkt habe und versuchen zu verstehen. Da geht es um ganz konkrete Umsetzungen in Spielen mit FP64 Berechnungen auf der GPU. Gerne übersetze ich dir die Passagen auch aus dem Englischen, falls dies zu Verständnisproblem bei dir führt.
 
@Moriendor
Die Titan X ist und bleibt ein Hobby. Etwas für Nerds, die Ihr Geld da rein stecken und Ihren Spaß damit haben.
Die meisten Deutschen haben ja irgend ein Hobby und wie ich aus früheren Hobbys festgestellt habe, kommt der Zocker Nerd noch billig weg.

- Hatte früher in Deutschland Modellflug gemacht und da waren €1000 schnell weg.
- Der obligatorische Winter Urlaub mit meiner Familie hat mehr als 3 Titan X gekostet und war nach 7 Tagen vorbei.
- Irgend ein Custom Teil für meine Harley kostet locker €500-€1000.
- Multimedia im Wohnzimmer mit Top Sound sind mal eben €5.000-€10.000.
- Küche für meine Frau (ohne Elektrogeräte) waren €15.000, wobei ich auch €25.000 hätte ausgeben können.

und Du jammerst, wenn Du jedes Jahr €250 an der GPU verlierst? Kaufe Dir irgend eine GPU für €350 und behalte die für 3 Jahre um in FHD zu zocken. Schon hast Du Geld gespart.
 
Herdware schrieb:
Ich bezweifele irgendwie, dass sich das außerhalb von speziellen GP-GPU-Anwendungen lohnt. Bei Spielen wird die allgemeine Grafik-Leistung immer wichtiger sein, als DP-Leistung. Wenn man beides ohne Kompromisse bekommen kann, dann kann man es natürlich mitnehmen. Bei den Kepler-Titan war das allerdings nicht der Fall.

http://www.dualshockers.com/2014/09...w-childrens-developer-to-save-5-ms-per-frame/

GPGPU wird einfach immer wichtiger werden in Spielen und mit DX12 und Vulcan wird das noch richtig kommen. Der Grund ist einfach, die aktuellen Konsolen bauen auf diverse GCN Features auf, unter anderem auch GPGPU.
Aktuelle Games werden noch wie bei bisherigen Konsole/PC Games entwickelt, also Pixel Shader. Damit aber die Spielstudios bei den Konsolen früher oder später bessere Grafik, oder zu mindestens mehr "Physik" Geschichten oder allgemein Effekte rauskitzteln können, müssen sie früher oder soäter auf Compute Shader Programmieren :

http://www.pcgameshardware.de/Alien-Isolation-PC-258198/News/Compute-Shader-GPGPU-Partikel-1149918/
Laut eigenen Angaben lag ein großer Fokus auf den GPGPU-Kapazitäten der Engine in Form von Compute-Shadern, dank denen einige grafische Effekte unabhängig von der Rendering-Pipeline berechnet werden können. Dazu gehören beispielsweise eine in Echtzeit berechnete Radiosität, Eigenverschattung und "Contact Hardening Shadows" – Schatten, die bei größer werdender Entfernung immer stärker verwischen.

Zu guter Letzt werden Partikel-Effekte genannt, die dank Compute-Shader besonders realistisch aussähen, da so eine Interaktion mit Licht gewährleistet werden könne. Dadurch sehe Dampf beispielweise besonders volumetrisch aus, ohne dass man auf Physx-Effekte setzen müsste. Insgesamt sei es kein Problem, über diesen Weg eine Million Partikel mittels aktueller Hardware darzustellen – damit ließen sich einige nette Effekte realisieren.

Es wird auch oft von "asynchrom" gesprochen. Bei AMDs VR Technik, verwendet sogar asynchrome shader
http://semiaccurate.com/2015/03/03/amd-breaks-new-ground-liquidvr-sdk/
It also minimizes latency and stuttering thanks to asynchronous shaders which take advantage of the asynchronous compute engines in AMD’s GCN GPUs to execute image processing and image rendering tasks in parallel.

MADman_One schrieb:
Ich sehe das Problem mit DP nicht, da es aktuell meine Wissens keine Karten gibt, die DP gamekompatibel einsetzen können. Um DP auf der alten Titan zu aktivieren, musste man im Treiber etwas umschalten.

Ich habe letztes Jahr gesagt, dass wir früher oder später eine Titan bekommen wird, die ganz groß Compute-Shading und die Zukunft der Gaming-Grafik ankündigen wird. Ich bin davon immer noch erzeugt.
Denn damit werden dann jene, die zum Beispiel eine Maxwell haben zum Aufrüsten animiert. Naja, ab warten, kann mich ja noch täuschen.

Solange aber GPGPU noch nicht durchgesetzt hat, kann man ja weiterhin auf PhysX bauen.
Btw, zufällig dass man nach Isolation-GPGPU News so eine News zum Lesen bekommt:
http://www.gamestar.de/software/news/3083576/nvidia_physx.html

Tja, jetzt muss man langsam den Standard PhysX doch öffnen, auch wenn es anfangs nur für den Prozessor ist.

MikelMolto schrieb:
und Du jammerst, wenn Du jedes Jahr €250 an der GPU verlierst? Kaufe Dir irgend eine GPU für €350 und behalte die für 3 Jahre um in FHD zu zocken. Schon hast Du Geld gespart.

Wie wäre es mit Sport ?
Klar, kostet auch was im Jahr, aber davon hat die Gesundheit (wenn man es nicht übertreibt oder richtig ausübt) etwas :)
Lebst du nicht in einem Land wo Fußball gespielt wird ? (PS, nein ich bin kein Fußball Fan)

Außerdem, zahlt man auch in der Norm etwas für Spiele, außer man spielt nur free to play. Aber dafür würde ich keine 350 Euro Grafikkarte kaufen.
 
Zuletzt bearbeitet:
HisN schrieb:
Was will uns der Künstler damit sagen?


Anno2070, 4K, voll aufgedreht, 60 FPS und noch Luft auf der Graka.

Also was du uns gerade sagst ist ja auf jeden Fall mal, dass die Titan X mit ordentlich OC richtig gut abgeht. :D Was die wohl in FHD für wahnwitzige Frameraten erreichen würde?
Was ich sagen wollte war nicht, dass die Titan X irgendwie untauglich für UHD wäre, sondern nur, dass ich es dämlich finde ohne irgendwelche Kenntnisse einfach mal irgendwelche Ansprüche an UHD-Tauglichkeit zu stellen, wenn viele doch offensichtlich nicht verstehen, wie viel Mehrleistung dafür benötigt wird. Dass die Titan X das in vielen Fällen ziemlich gut schafft, finde ich beeindruckend. Aber so völlig ohne Plan und nur im Preis begründet zu erwarten, sie solle gefälligst noch schneller sein, so in der Richtung von 60FPS in Allem, finde ich einfach daneben. Das Anno-Beispiel war jetzt aber auch keine Glanzleistung von mir. Auch wenn ich überrascht bin, dass du anscheinend im Vergleich zu den CB-Tests über 50% mehr Leistung in UHD raus bekommst. Da kommt man mit deinen Werten ja wirklich fast in die Regionen von 300%.

@Moriendor
DukePanic hat vollkommen Recht. Da kannst du hin und her rechnen, wie es für dich sinnvoller ist. So ist es sicher auch für die meisten sinnvoller. Aber bevor ich mehr als eine Packung Zigaretten am Tag qualme, hol ich mir lieber jedes Jahr zwei Titans. Und da hat jeder das Recht für sich selbst zu entscheiden, wo er seine Prioritäten setzt. Wenn die Kohle und das Interesse da sind, kann man damit machen was man will. Wenn ich jetzt los rennen würde und alle als Idioten darstellen würde, die irgendwo auf irgendetwas mehr oder weniger Wert legen als ich, dann wäre in dem Fall ich selbst der größte Idiot.
Und eine Variante fehlt in deiner Ausführung. Schau dir nur den guten HisN an. Der verkauft seine Titan Black und hat jetzt eine Titan X. Der muss ja gänzlich hirnamputiert sein, nicht wahr? (No Offense HisN :D)
 
Zuletzt bearbeitet:
Daedal schrieb:
Ach und das selbe Argumet ist wohl auf dafür zuständig, dass Nvidia ständig mit den Hardware-Feastures für DX zurück liegt?

Doch wer kauft sich eine Titan um sie in 1 Jahr durch eine neue Karte zu ersetzen?
1) Ich behaupte mal, JA. Zu dem Zeitpunkt, an dem die Karten erschienen war es in der Vergangenheit zumindest so, das die neuesten DX-Features nur von einer sehr überschaubaren Zahl von Spielen unterstützt wurde.

Nvidia hat sich einfach in Ruhe zurückgelehnt und ATI aka AMD das werbewirksame trommeln mit neuestem DX-Featurelevel überlassen. Weil sie wußten das es in der Gamer-Realität einfach zu der Zeit keine wirkliche Rolle spielt. Haben wir dadurch echte Nachteile (gehabt) ? Ich sage NEIN.

2) Zu der Frage, schau dich in den Forumthreads zu den Grafikkarten mal um, ich will ja jetz keine Namen nennen... :freaky: es gibt diese Leute ;)

========= kurz OT

Wenn man die Geschichte so beobachtet fragt man sich was bei AMD los ist?

Bei den Consumer-CPUs waren sie bis 2006 führend -und dann revolutionierte sich Intel selbst, brachte den Core2duo E6300 usw und watscht AMD seitdem konstant ab so das AMD nur über den Preis kontern kann.

Bei den GPUs war es genauso -und ironischerweise war es ebenfalls 2006, als Nvidia mit der 8800 GTX ein neues Zeitalter einläutete- und seitdem bei den Consumerkarten AMD erst Leistungs- und seit einiger Zeit auch Stromverbrauchs-technisch ein ums andere Mal abwatschen tut.

AMD ist nach wie vor nicht schlecht und in Einzelszenarien mehr als das, muß über alles gesehn mehrheitlich über den Preis kontern. Hallo AMD, aufwachen wo bleibt eure Revolution ?
 
Zuletzt bearbeitet von einem Moderator:
HisN schrieb:
Echt?
Ich finde die geht recht gut in 4K.

Das ist ja auch wieder das Problem, daß irgendwelche Leute einfach behaupten 60fps bei Ultra Settngs in UHD sind das absolute Minimum um gut zu zocken oder Spaß zu haben, alles andere wäre Müll. Als hätten alle Menschen die gleiche Wahrnehmung und die gleichen Ansprüche. Mich nerven diese Pauschalisierungen mittlerweile sehr und würde mir echt wünschen, es würden mehr mit Formulierungen wie "ich finde", "meiner Meinung nach", "für meine Ansprüche" usw. arbeiten, statt überall mit der Universalkeule draufzuhämmern.
Meine Augen kommen auch mit 40 fps gut klar wenn dafür der Rest stimmt, das Bild an sich ruhig und scharf ist. Daher stimme ich persönlich mit Dir überein, daß die Titan X Werte in 4k aus meiner Sicht eigentlich ziemlich gut aussiehen, besser als ich erwartet hätte.

Moriendor schrieb:
Abgesehen davon erscheint es mir grundsätzlich sinnvoller die GPU regelmäßig zu tauschen als sich für teuer Geld eine Karte zu kaufen und an dieser dann krampfhaft drei, vier, fünf Jahre festzuhalten. Es kommen ja auch immer mal neue Features, die man dann mit seiner alten überteuerten Karte nicht nutzen kann. Zudem macht es für mich wirtschaftlich einfach mehr Sinn:

- Kauf €500 Karte in 2015 -> Verkauf für €250 in 2016 -> Kauf €500 in 2016 - Zwischenstand = -€250 ... und dann jährlich immer so weiter

^ wenn man das jährlich so durchzieht, dann gibt man in vier Jahren ca. €1000 aus und hat aber immer die neueste Technik im PC stecken (und mit Verkauf €250 bin ich eher konservativ rangegangen... die Realität dürfte je nach Modell der Karte eher zwischen €250 und in der Spitze mit ein wenig Glück bis zu €350 liegen).
Der Titan-Käufer, der meint seine Karte reiche nun für vier oder fünf Jahre gibt dasselbe Geld -oder bei €1299 sogar noch mehr- aus, hat aber spätestens nach der Hälfte der Zeit, also schon nach ca. zwei Jahren 'ne olle Kamelle im Rechner am gammeln. Vielleicht mit viel VRAM, aber mit verhältnismäßig schwacher Rohleistung, so dass man sich den VRAM an die Klotür nageln kann. Und nach Ablauf der vier oder fünf Jahre... was kriegen wir dann noch für unsere Titan? €100? Wenn überhaupt...

Da stimme ich Dir zu, ich halte auch nichts vom Kauf von Grafikkarten im Hochpreissegment in Kombination mit dem Label "Zukunftssicherheit". Das macht einfach keinen Sinn. Wer sparen will, der fährt mMn besser mit regelmäßigem Tausch im mittleren Preissegment als etwas teures lange zu halten. Enthusiasten folgen eigentlich genau Deinem Modell, mit dem Unterschied, daß sie auch Preisregionen jenseits von gut und böse oft nicht mehr schrecken. Was mich nicht stört, denn es gibt für jeden etwas im Sortiment.

Viele führen da aus meiner Sicht eine Neiddebatte, weil etwas angeblich nicht so teuer sein darf, daß es sich eine Mehrheit mehr leisten kann. Ich lehne diesen Ansatz grundsätzlich bei allen Gütern ab, die nicht zum täglichen Bedarf gehören, es gibt keinen Anspruch auf bezahlbare Hochleistungskarten für alle. Letztendlich regelt es Angebot und Nachfrage und was ein entsprechender Artikel wert ist, entscheidet der Käufer persönlich und nicht jemand anderes stellvertretend für alle.

rentex schrieb:
Ne Du, die wenigsten kritisieren die Käufer. Da geht es eher in Richtung Nvidia! Kann ja jeder machen was er will.

Leider nein, viele gehen hier leider die Käufer auch indirekt an, indem sie ihre Kritik in Pauschalbeleidigungen oder andere Abwertungen verpacken. Ich setze solche Leute mittlerweile sofort auf die Ignore-Liste wenn ich den Eindruck gewinne, daß da jemand völlig unfähig/unwillig zu einer differenzierten Betrachtungsweise ist und einfach mal seinen eigene Standpunkt als allein Glückseligmachenden hinstellt und alles andere verteufelt. Meistens um sich aus irgendwelchen Gründen besser zu fühlen. Mit solchen Leuten diskutiere ich nicht mehr, mir wird das Trollfutter mittlerweile einfach zu teuer. Das jeder kaufen kann was er will, akzeptieren leider nicht alle ohne irgend einen hinterhältigen Seitenhieb draufzupacken.
Mag aber auch damit zusammenhängen, daß bei CB scheinbar mehr "Mainstream" unterwegs ist, die einfach die Welt und Entscheidungsprozesse eines Enthusiasten nicht kennen und sich auch nicht vorstellen können. In speziellen OC-Foren geht es gesitteter zu meiner Erfahrung nach.
 
HisN schrieb:
Echt?
Ich finde die geht recht gut in 4K.
Es hängt also daran wie man "es reicht" definiert.
Was geht denn Deiner Meinung nach nicht?

...

Kommt vom Ultra-Trip runter und genießt die 4K-Auflösung, und schon geht sich das mehr als aus.
Immer dieses "geht nicht, reicht nicht" .... angelesenes Halbwissen, bzw. Benchmarks die mit X-Fach-Antialiasing gemacht wurden, die man vielleicht in FullHD noch braucht, in 4K aber nicht mehr (persönliche Meinung), nur damit es vergleichbar bleibt?

Nö. Ich komm da von gar keinem Trip runter :D . Man ist bei der LCD-Technik nun mal an die native Auflösung gefesselt, wenn man auf Bildqualität auch nur im Ansatz wert legt. Und wenn ich als bekennender Bildqualitätsfetischist die Wahl habe, dann werde ich immer die höheren Qualitätsstufen bei (nativ) niedrigerer Auflösung fahren als eine hohe Auflösung mit verminderten Details. Denn Ersteres sieht schlicht grundsätzlich besser aus. Die höhere Auflösung bringt bei viel Einbildung etwas mehr Schärfe, aber eben auch oft noch Nachteile wie ein mangelhaft skalierendes UI (Bildschirmlupe FTW! ;) ).
Vielleicht kommt das auch heute durch die Smart Phone Generation, die versaut worden ist von den Herstellern, die versuchen, Ihnen weiszumachen, dass man ohne Retina-Display im Grunde eine nicht lebenswerte Existenz fristet, aber man glaube es einem alten Hasen wie mir: Auflösung ist nicht alles. 1080p/1440p mit alles auf ULTRA sieht immer besser aus als 4K auf High bis Medium. Meiner Meinung nach ist 4K Gaming noch einfach unsinnig. Da muss noch viel passieren in Sachen GPU-Leistung zu angemessenen Preisen und auch auf Seiten der Software, so dass man die Lupe stecken lassen kann.
Man könnte sogar die Gretchenfrage stellen, ob 4K bei gängigen Bildschirmdiagonalen am Schreibtisch (24"bis max 32") wirklich Sinn macht. Ich finde nicht unbedingt. Wer je nach Diagonale ein 1080p (24") oder 1440p (27" bis 32") Bild als "körnig" empfindet, sollte sich vielleicht mal lieber den Schlaf aus den Augen reiben ;) . Ernsthaft: 4K wird IMHO erst ab deutlich über 40"+ interessant, also im TV-Bereich oder Beamer, Präsentationen, Kino... wo auch immer "viel Bild" auf großer Fläche geboten werden muss.
 
Daedal schrieb:
Also wen du es schreibst ist es kein Quatsch, nur wenn ich das schreibe^^
es ist durchaus möglich, dass OpenCL hier in zukunft einfach keine Rolle mehr spielt durch Vulkan und DX12, doch es bleibt, dass die Anforderungen an die GPU durchaus auch in Games FP64 beinhalten.
Was du sagst impliziert, dass Open CL bislang bei der Gameentwicklung eine Rolle gespielt hat. Das ist aber einfach nicht der Fall.
Dem entsprechend ist auch dein ganzes Argument von wegen GPUs müssten die fp64 Arbeit übernehmen, weil CPUs das unter OpenCL nicht unterstützen, hinfällig.

Den Rest hast du dir zusammengereimt und du solltest nochmal die Quellen lesen die ich verlinkt habe und versuchen zu verstehen. Da geht es um ganz konkrete Umsetzungen in Spielen mit FP64 Berechnungen auf der GPU. Gerne übersetze ich dir die Passagen auch aus dem Englischen, falls dies zu Verständnisproblem bei dir führt.

Zusammengereimt? Das sind eigene Erfahrungen. Frag mal Naturwissenschaftler ob sie double oder float verwenden und wenn double, warum. Die Antwort wird immer sein: "Double ist genauer!" Und wenn du dann erzählst, dass float auch reichen würde und das Programm dann 5mal schneller läuft heißt es: "Is nicht wichtig hauptsache die Werte sind genau."

Deine Quellen sagen nichts anderes aus, als dass man mit mehr Bit höhere Genauigkeit erreichen kann - Überraschung.
Ich habe aber keinen Satz dazu gefunden, dass auch nur ein Entwickler vor hat fp64 Berechnungen auf der GPU durchzuführen. Übrigens auch bei Starcitizen nicht.
 
Moriendor schrieb:
Man könnte sogar die Gretchenfrage stellen, ob 4K bei gängigen Bildschirmdiagonalen am Schreibtisch (24"bis max 32") wirklich Sinn macht. Ich finde nicht unbedingt. Wer je nach Diagonale ein 1080p (24") oder 1440p (27" bis 32") Bild als "körnig" empfindet, sollte sich vielleicht mal lieber den Schlaf aus den Augen reiben ;) . Ernsthaft: 4K wird IMHO erst ab deutlich über 40"+ interessant, also im TV-Bereich oder Beamer, Präsentationen, Kino... wo auch immer "viel Bild" auf großer Fläche geboten werden muss.

Hehe, aber gerade HisN zockt an einem 40" 4k Monitor ;) Und ich plane auch eine entsprechende Umrüstung, meine Augen sind zu schlecht für eine exobitant hohe PPI-Zahl. Eine große Sichtfläche ohne Skalierung zu bekommen und trotzdem eine gute Bildschärfe zu haben ist mir mich viel bedeutender als eine superscharfe Auflösung, für die ich eine Lupe brauche. Daher habe ich jetzt auch schon einen 34" mit 1440p im Einsatz und ein 40" mit 2160p sind ein Traum für mich (glücklicherweise ein erfüllbarer).
 
Zuletzt bearbeitet:
@Moriendor
Ist dann tatsächlich ne Ansichtssache, denn die Auflösung bringt meiner Meinung nach deutlich mehr Details ans Licht als irgendwelche Features in FHD.
Und verdammt, wie Madman_One schon erwähnt, ich sitze an einem 40" UHD-Moni.
Und ich hab die 8 Jahre vorher an einem 30" in 2560x1600 gesessen.
NO WAY würde ich wieder zurück wechseln, nicht für alle FEATURES der Welt. Die Auflösung und die Größe von meinem Moni machen das alles wett.
Probier es aus.
 
Zuletzt bearbeitet:
Zurück
Oben