ATi HD5800 und nVidia GTX400 (DX11 Gerüchteküche)

Status
Für weitere Antworten geschlossen.
CUDA würde auch problemlos auf den AMD-Karten laufen.
Nur lässt nVidia das nicht zu, obwohl sie mehrfach öffentlich die Lüge verbreitet haben dieses Feature auch an AMD zu lizensieren.
Klar... Für 50$ pro Karte hätte ich als AMD auch keine Lust auf CUDA.
Daran sieht man aber mal, dass nV nur Müll verbreitet.

@yeeha: Ja, das Oak Ridge war es glaube ich...

Grüße vom:
Jokener
 
Jokener schrieb:
...
Damit kann auch eine tolle Kompatibilität mit C++ den Tag von Jensen (NV-CEO) nicht mehr retten....
Warum nicht? Objektorientierte Programmierung ist keine Nebensächlichkeit für die Verbreitung des Einsatzes von GPGPU.
 
Alpenbruder schrieb:
Es war doch schon lächerlich als Nvidia behauptete aus dem Spielemarkt ausztreten und mehr für Forschung zu entwickeln.

Nvidia hat nie behauptet, dass sie aus dem Spielemarkt austreten wollen, sie haben es sogar dementiert, auch wenn dieses Gerücht lächerlich war. Das Gerücht hat eine gewisse Person losgetreten, über die wir hier schon mal diskutiert haben, weil diese Person nur das Anliegen hat, den Ruf von Nvidia zu schädigen und manche immer noch dies und seine Taktiken nicht verstanden haben.
 
Zuletzt bearbeitet:
@MountWalker:
Das ist sicherlich ein nettes Feature, für manche sogar recht wichtig.
Aber es bringt dir nicht, einen C++ Chip zu haben, wenn der nicht genügend Rechenoperationen pro Watt bringt.
Man kann die Programme durchaus auch für OpenCL schreiben, ist also nicht zwingend auf eine nVidia GPU angewiesen.
Mal abgesehen davon, dass AMD so ein Feature auch jederzeit bringen kann (jederzeit=nächste Generation).
Wenn sich das wirklich als großes Kaufkriterium herausstellt, dann kann AMD das ganz schnell auch :D

@silent-efficiency:
Wenn man sich aber die Berichte der vergangenen 18 Monate ansieht, dann gibt es niemanden der häufiger goldrichtig lag.
Hat er in den letzten 18 Monaten irgendwann überhaupt mal komplett falsche Informationen verbreitet?
Wenn ja, welche?
(kann durchaus sein, dass es so ist. Mir wäre es dann aber nicht aufgefallen. Nur bitte keine Kleinigkeiten raussuchen...)

Grüße vom:
Jokener
 
falsch das Gerücht oder was auch immer das war, hatte eher eine positive Wirkung. Quasi eine Rechtfertigung für stromfressende Supergpus mit mega Leistung. Und es wurde schon oft als News gepostet und diskutiert und in den News wo die Zahlen von Nvidia dargelegt worden waren, war auch immer nur die Rede von ner anderen Schiene und das der Gamermarkt ja nicht das Hauptfeld sei.


Ich kram den Thread gleich aus.
 
Hat sich das mit Oak Ridge nicht als völlige Falschmeldung seitens Charlie herausgestellt? Es gab doch ein paar Seiten die damals bei nV und Oak Ridge rückgefragt haben und es wurde von beiden dementiert - ich weiss allerdings nicht ob sich nachher diesbezüglich noch was getan hat?!
 
Fermi war offensichtlich zu Beginn eine reine GPGPU, also gar nicht zum zocken gedacht.
Die eigentliche Gaming-GPU hat sich aber als kompletter Müll herausgestellt, jetzt muss Fermi für die Zocker herhalten.
Ich sage kompletter Müll, weil ja auch Fermi alles andere als eine Über-GPU ist.
SO viel Stromverbrauch, SO schlecht auf den Fertigungsprozess bei TSMC abgestimmt, SO sehr an allen Designzielen vorbei und SO spät wie Fermi kommt...
Damit die Fermi anstatt etwas anderem verwenden muss das andere schon verdammt schlecht gewesen sein.

Und damit hat Charlie (wenn überhaupt) einmal etwas gesagt, dass manche so interpretiert haben...
Bei deinen Kommentaren ihm gegenüber wirst du doch aber sicherlich mehr News haben, wo er kompletten Unsinn verbreitet hat, oder?

Grüße vom:
Jokener

Edit: Das mit Oak Ridge habe ich nicht von SemiAccurate, sondern von einer anderen (deutschen) Seite.
Wo genau ich es gelesen habe weiß ich nicht mehr. Wird irgendwas von PCGH, CB oder eine seriöse Technik-Seite gewesen sein...
 
@Alpenbruder
Und weil das eine so positive Wirkung hatte, hast du es gerade vor ein paar Minuten Nvidia vorgeworfen und deren Glaubwürdigkeit in Frage gestellt :rolleyes:

Nvidia hat nur gesagt, dass deren der Profimarkt wichtiger ist, als manch anderen und nvidia macht aufgrund dessen auch keine hohen Miesen, nur weil sie keine DX11-Karte haben. Das ist positiv für nvidia. Das Gerücht, dass sie aus dem Gamergeschäft angeblich aussteigen wollten, war hingegen alles andere als positiv.

@Jokener
Warte bis die GPU draußen ist, dann kannst du darüber sicher Urteilen. Du Urteilst gerade mit solch einer Sicherheit darüber, als wäre die GPU schon released worden ;)
und ja, ich könnte noch mehr Beispiele bringen, das ist aber offtopic und wurde von Modration auch verboten über diese Person zu reden. Ich habe daher auch lediglich das was Alpenbruder nvidia Vorgeworfen hat auf die richtige Adresse geleitet, denn nvidia kann nichts dafür, wenn andere Gerüchte verbreiten.
 
Zuletzt bearbeitet:
Oak Ridge will iirc nach wie vor auf die Fermi-Karten warten.
Jokener schrieb:
Fermi war offensichtlich zu Beginn eine reine GPGPU, also gar nicht zum zocken gedacht. [...] Ich sage kompletter Müll, weil ja auch Fermi alles andere als eine Über-GPU ist.
Kompletter Müll also. Interessant, was so mancher hier als Tatsache darstellt und das mit einer Formulierung, die derart unangemessen ist, dass man nicht weiß, ob man lachen oder weinen soll.
 
Ich habe zu Beginn ja auch einiges von Fermi erwartet.
Aber schlichtweg ALLES was nVidia derzeit tut deutet nur darauf hin, dass Fermi ein absoluter Rohrkrepierer wird.

@yeeha:
Die GPU, die zu Gunsten von Fermi gestrichen wurde, die muss kompletter Müll gewesen sein.
Wie gesagt, Fermi ist nicht übermäßig schnell. Sie hätten die andere GPU aber nicht gestrichen, wäre Fermi nicht besser.
Wenn die andere also schlechter als mittelmäßig ist, dann ist sie in meinen Augen Müll, ja.

Grüße vom:
Jokener
 
Zuletzt bearbeitet:
Wie kommen einige denn darauf das AMD/ATI nichts im GPGPU Markt zu bieten hat? Die Chips sind voll OpenCL, Stream und DirectCompute fähig.

Und das Argument mit C++ ist nur Marketing geblubber. C++ ist nur eine Sprache die von einem Compiler für die Zielplattform übersetzt wird.
 
Jokener schrieb:
...
Man kann die Programme durchaus auch für OpenCL schreiben, ist also nicht zwingend auf eine nVidia GPU angewiesen. ...
Ich bin nur mal gespannt, wie unbedeutend das noch sein wird, wenn Apple mal ObjC-Bindings für OpenCL rausbringen wird.
 
Jokener schrieb:
Die GPU, die zu Gunsten von Fermi gestrichen wurde, die muss kompletter Müll gewesen sein. Wie gesagt, Fermi ist nicht übermäßig schnell.
Und welche GPU soll das gewesen sein, die NV gestrichen hat? Und woher willst du wissen, dass Fermi "nicht übermäßig schnell" ist? Anhand von der Handvoll geleakter Werte? Warte den Launch ab - und dann dürfen alle roten Fanboys entweder in Jubelstürme ausbrechen oder sie werden in Stille schweigen.
 
5890 has clocks 950/5,2 GHz

http://www.xtremesystems.org/forums/showpost.php?p=4285984&postcount=2593

Das Spiel 5870<>5890 scheint wohl analog zu 4870<>4890 zu laufen. Ein marginales Taktupgrade mit einigen kleinen Veränderungen / Optimierungen an der GPU.

Das könnte auch der Grund sein warum z.B. die MSI 5870 Lightning offiziell nur mit 900 MHz kommt, wohl um noch Spielraum für die 5890 zu haben.

Die Aussage von Neliz, dass einige Partner 1150 MHz anvisieren, scheint sich wohl auf eben diese 5890 zu beziehen. Bei der 4890 gab es ja auch Super-OC Karten wie die Sapphire 4890 Atomic oder XFX 4890 Black Edition, bei welchen die GPU um 150Mhz übertaktet wurde. Wäre also keine überraschung wenn es bei der 5890 genau so laufen würde.

Man darf gespannt sein wies weitergeht :)
 
aus diesem statement von nvidia kann man mit viel gutem willen durchaus raus lesen, dass ein gpu-design komplett überarbeitet/gestrichen/in die tonne geklopft/etc. wurde:

“We redesigned GF100 from the ground up to deliver the best performance on DX11. This meant adding dedicated h/w engines in our GPU to accelerate key features like tessellation.

We also made changes on the compute side that specifically benefit gamers like interactive ray-tracing and faster physics performance through things like support for concurrent kernels.

Unfortunately all of these changes took longer than we originally anticipated and that’s why we are delayed.

Do we wish we had GF100 today? Yes. However based on all the changes we made will GF100 be the best gaming GPU ever built. Absolutely.”
-> http://www.fudzilla.com/content/view/18016/1/


@johnieboy: wenn die optimierungen beim gpu-design so ausfallen, wie es beim 4890 der fall war, dann kann man sich auf die karten durchaus freuen.
 
Zuletzt bearbeitet:
Man muss einfach englisch verstehen können und die zusammenhänge kennen. Nvidia sagt nur, dass sie den GF100 von Grund auf neu gemacht haben. Das haben die schon damals, als G200 raus kam gesagt, dass die nächste GPU ein komplett neu entwickelter Chip sein wird. Mehr als das, wird hier in dem Zitat nicht bestätigt. Das "redesign" bezieht sich auf die Architektur des G80, nämlich die Unified Shader-Architektur, nicht auf irgend einen konkreten Chip, der irgendwo angeblich irgendwann verworfen wurde. Was ihr immer für Unsinn in Aussagen fehlinterpretiert...
 
Zuletzt bearbeitet:
Lübke schrieb:
22nm soll auf einem komplett neuen verfahren beruhen. wenn dieses verfahren schon weit genug fortgeschritten ist, dann würde sich dadurch 32nm/28nm erübrigen.

Da bist du völlig falsch informiert. 32nm ist der optische Shrink zu 40nm, 28nm hingegen wird erstmalig (für TSMC) auf HKMG basieren. 22nm ist dann wieder der optische Shrink zu diesem 28nm Prozess (Half-Node-step)

Lübke schrieb:
nur wenn auch ati gpgpu-fähig ist,

Shurkien schrieb:
Also ich sehe von AMD bisher noch keinen GPGPU Chip

nille02 schrieb:
Wie kommen einige denn darauf das AMD/ATI nichts im GPGPU Markt zu bieten hat? Die Chips sind voll OpenCL, Stream und DirectCompute fähig.

Und das Argument mit C++ ist nur Marketing geblubber. C++ ist nur eine Sprache die von einem Compiler für die Zielplattform übersetzt wird.

Soviel dazu. Bevor einige mit Begriffen um sich werfen, sollten sie die erstmal verstehen.

silent-efficiency schrieb:
Welche andere GPU, die gestrichen wurde, zu Gunsten von Fermi? Jokener du schreibst gerade wirres Zeug, und keiner kann dir folgen und das hat auch einen Grund^^

Lt. Charlie wurde von NVIDIA für die Gamer ein Gamer-GPU entwickelt, der sich aber als zu schlecht erwiesen hat. In Ermangelung eines geeigneten Ersatzes hat man sich eben Fermi geschnappt und den noch bissl fürn gaming Bereich "zurecht gebogen". DX11 Support usw.

silent-efficiency schrieb:
Nvidia hat nie behauptet, dass sie aus dem Spielemarkt austreten wollen, sie haben es sogar dementiert, auch wenn dieses Gerücht lächerlich war. Das Gerücht hat eine gewisse Person losgetreten,

Quelle? Ich les ja nun so ziemlich alles von Charlie D., aber das wäre mir neu, das das von ihm kam.

Bitte nicht anderen Leuten vorwerfen, sie würden rufschädigendes Verhalten an den Tag legen und dann mit der gleichen Kelle austeilen. Vielen Dank.


silent-efficiency schrieb:
Man muss einfach englisch verstehen können und die zusammenhänge kennen.

Da steht: REdesigned, nicht designed. Ohne Re --> sie hatten was und habens umgemodelt.

Im Gegensatz zu: Von Grund auf neu gemacht.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Zurück
Oben