News Nvidia zeigt Tesla-„Fermi“-Grafikkarten

Eusterw schrieb:
Also eine GTX285 schafft mit 240 Shadern und DDR3 ca. 80% einer 5870.

Da wird eine Femi mit 512 Sahdern und DDR5 selbst ohne Fortschritte im Cache usw, ja mal bei mindestens 150% einer 5870 landen....

träum weiter und überleg deine prozentangaben nochmal. wenn die GTX380 60% schneller (und mehr werden es garantiert nicht) als die GTX285 wird, ist sie trotzdem nur 28% vor einer 5870. Verschiedene Basen. nimm einfach 80fps für die GTX285 und 100fps für die 5870, dann siehste den Fehler.

Um auf 150% einer 5870 zu kommen, müsste die GTX380 88% schneller als die GTX285 werden, so schnell war nicht mal der G80 im Vergleich zum Vorgänger.

Ich bleib dabei,dass die GTX380 nur minimal schneller als die 5870 wird,wenn überhaupt.


gruß
 
C2070 mit 6GB DDR5

@ Schinzie :

Du fährst Leute dafür an das sie wie alle hier "Prozentangaben raten" und bist selber nicht besser ;-)
In dem ganzen Post hier hat doch keiner ein Schimmer was die FermiGPUs letztendlich wirklich leisten.
Terraflops hin oder her. Alles nur sehr sehr theoretisch.
Aber als AMD Fanboy erwarten wir natürlich nichts anderes als sowas .......


Viel Spaß noch, und einfach mal Ball flach halten!



edit: das die Nvidia-Serie des Fermi besser als AMD/ATI wird, ist anhand der Datenblätter sehr warscheinlich, auch das der Leistungsunterschied groß sein wird. (10% > ist GROß) aber das wird sich erst mit Benchmarks zeigen.
 
Zuletzt bearbeitet:
ne, ich fahre nur leute an, weil sie nicht prozentrechnen können oder utopische Angaben machen.


gruß
 
Anhand der Datenblätter ist derzeit noch fast gar nichts rauszulesen.
Wenn ich mir die Flops mal angucke, dann sinddie in Relation gesehen zur GTX285 GPU nicht viel mehr geworden.
Die Gamingkarten werden wohl anders aussehen als die Fermi GPGPU´s.
MAn weiß eig. noch nicht viel. Wenn man sich aber mal die jetzigen Daten zur Brust nimmt den Fertigungsprozesss und dann bisschen überlegt, kann der Fermi zum jetzigenZeitpunkt kaum schneller rendern als ne HD5870. So groß kann er gar nicht werden, ansonsten hat man gar keine Yield Erfolge.
Ich geh mal von 50% Leistungssteigerung zur GTX285 aus.
 
Ich überleg noch woher die gewissheit des "wir sind schnelelr" im intervew herkam ... mein bauchgefühl sagt mir, dass die gamerkarten vielleicht doch noch zu überraschen wissen ...
 
Danke @ Motkachler Sowas in der Art wollte ich auch andeuten. Ich versteh derzeit nicht wie man mit den geringen Flops an ne HD5870 heranreichen will.
Die Auslastung soweit erhöhen ist eigentlich nicht möglich. Naja ich bin gespannt =).
 
Lübke schrieb:
verfügbar erstes quartalt 2010... wollen wirs hoffen^^

im Falle es gibt nicht noch eine Revision wobei es ganz danach aussieht..., demnach würde Fermi erst gegen April/Mai sprich Q2/2010 lieferbar werden.

Leistungsspekulationen find ich lustig, Fermi ist kein G200, alle Ableitungen von seiner auf Fermi's Leistung sind irrelevant. Fermi ist eine CUDA Maschine, keine auf Spiele getrimmte Karte. Sie hat zwar die nötigen Resourcen für eine doppelt so hohe Leistung wie der G200 aber das hatte die HD5870 hinsichtlich der HD4870 auch, raus kamen aber nur 60%-70% da in der Realität nun mal nicht alles 100% skaliert.

Sollte sich allerdings Q2/2010 bewahrheiten, dann steht bei AMD einige Monate später schon die nächste Generation an und das wäre extrem schlecht für NVidia weil ich nicht denke, das sie ausser Fermi, noch etwas im nächsten Jahr aus dem Hut zaubern können.

Interessant wird es auf jeden Fall nächstes Jahr, vor allem mit dem Wechsel bei AMD zu Globalfoundries. Sollte sich der Hersteller als Glücksgriff erweisen und nicht so viele Probleme haben wie derzeit TSMC bei der Herstellung sehe ich rosige Zeiten für AMD.
 
Zuletzt bearbeitet:
Neo_Xsendra schrieb:
@hurga_gonzales

ja wie kann man nur ne gpgpukarte vorstellen? *kopfschüttel* die ARMEN GAMER wissen ja garnicht was sie damit sollen!!!!

bitte ließ dir doch nächstes mal den GANZEN ARTIKEL und zumindest EINEN TEIL DER ANTWORTEN durch ...

Danke für den Hinweis, aber...

...ich habe den Artikel gelesen
...meine Aussage ist nur meine Meinung, die einzig und allein besagt, dass NVidia damit den Gamermarkt für 2010 (und meiner Meinung nach hinein nach 2011) dem ATI/AMD Lager überlässt
...ich mit keinem Wort die Vorstellung an sich bekrittle, sondern das bis auf absehbare Zeit parktisch völlige Fehler von Gamer-Karten auf NVidia Seite

Ich halte es einfach für eine falsche Entscheidung, erst den Nischenmarkt zu bedienen und dann den Massenmarkt, der Geld in die Kassen spülen soll.

Aber meine Einblicke in die Zunft sind hier bestimmt unzureichend und ich kann das nicht als Ganzes sehen. Eventuell stellt sich ja heraus, dass genau das der richtige Weg für Nvidia ist.
 
stevke schrieb:
..dadurch lassen sich vielleicht Rückschlüsse auf die Leistung als normale Grafikkarte ziehen,...


Bitte hört auf damit, das nervt nur noch.
 
raubwanze schrieb:
Man muss natürlich dabei bedenken, dass bei der g200-Architektur bei Spielen lediglich das MADD eine Bedeutung hat, das zusätzliche Mul nicht.
Wieso nicht? Das war beim G80 mal ein Problem. Aber der GT200 kommt damit wesentlich besser zurecht und kann auch das MUL häufig auslasten. Es hört sich bei einigen so an, als ob nVidia die Shader verschlankt und dadurch keine Rechenleistung verlieren würde. Das tun sie aber definitiv. Was eben durch mehr Shader, Takt oder besseres Design (DP) wieder ausgeglichen werden muss. Aber, die SP Rechenleistung, und nur das ist für Spiele momentan entscheidend, wächst nicht so stark wie das hier durch solche verzerrten Rechnungen dargestellt wird. Es ist fraglich, ob sie überhaupt in Bereiche wie von G80 zu GT200 kommt.

GrooveXT schrieb:
und nun der Hammer: Komplette C++ Unterstützung, endlich Objektorientierung auf der GPU.
Was willst du denn mit Objektorientierung auf GPUs? :rolleyes: Die "C++ Unterstützung" ist hier pures Marketing. Als Entwickler hast du davon erstmal nichts. Das Problem an C/C++ ist, dass es keine standardisierten Möglichkeiten gibt, solche hoch parallelen Rechenwerke zu nutzen. Diese Sprachen haben einfach keine Semantik dafür. Eben deshalb wurden ja Spracherweiterungen wie OpenCL geschaffen.

Sulix schrieb:
allerdings ist es fraglich, inwiefern zB eine komplette Template Spezifikation für die GPU Sinn machen würde.
Das ist genau solcher Quatsch. Templates sind compile-time. Was willst du denn da für Hardware spezifizieren?
Nochmal, Marc_N hat es ja schon gesagt, C++ ist die Spezifikation einer Hochsprache. Hardware versteht davon erstmal nichts. Man kann hardwareseitig lediglich die Grundlagen schaffen, die die Spezifikation voraussetzt. ZB beim Speichermodell, was man wohl bei Fermi gemacht hat. Nur wage ich zu bezweifeln, dass das in der Praxis einen grundlegenden Vorteil hat. Wie gesagt, für die Programmierung muss man sowieso auf APIs wie OpenCL oder DirectCompute zurückgreifen.
 
Schon klar. Es gibt auch schon länger C/C++ Spracherweiterungen für parallele Aufgaben. Siehe OpenMP. Ich wollte nur Sachen verwenden, die aktuell sind und mit denen die meisten etwas anfangen können.
 
Ich habe hier auch nur die API gemeint. Dass Templates keine extra Hardware brauchen ist schon klar. Ebensowenig benötigt man diese für vtable pointer sowie functionpointer, abgesehen vom cache, den man sowieso für alles brauchen kann. Aber kann auch sein, dass ich mich hier irre, ich beschäftige mich üblicherweise mit den softwareseitigen Angelegenheiten.

Das war aber auch nicht mein Punkt, viel eher war er, dass solch eine API rein von ihrem Umfang her bereits für OOP ausreichend wäre, mehr nicht.
 
Zuletzt bearbeitet:
Wow, das rockt finde ich. Sollte sich der Trend fortsetzen und die Technik voll ausreifen, steht einer neuen Äre von Supercomputern nichts mehr im Wege. Vielleicht wird man GPUs und CPUs kombinieren und viel kostengünstiger und effizienter rechnen lassen können, nicht auszudenken, welche Revolution da noch kommt.
 
@Schaffe89: zum thema flops als leistungsmaaßstab für fermi vs. cypress: vergleiche einfach die werte 4890 vs. gtx275. das was die 4890 prozentual mehr an flops liefert, muss auch der cypress prozentual gegenüber dem fermi liefern, um etwa an ihn ranzukommen, falls der fermi nicht noch irgend eine besonderheit zu bieten hat (was ich nicht glaube).

so gesehen müsste der cypress in der theorie sogar langsamer als der cypress sein, wenn ich mich nicht irre....
 
Zuletzt bearbeitet:
Schinzie schrieb:
träum weiter und überleg deine prozentangaben nochmal. wenn die GTX380 60% schneller (und mehr werden es garantiert nicht) als die GTX285 wird, ist sie trotzdem nur 28% vor einer 5870. Verschiedene Basen. nimm einfach 80fps für die GTX285 und 100fps für die 5870, dann siehste den Fehler.

Der Femi soll ja 113% mehr Shader haben, als die GTX285.

Wenn die Leistung von 80% auf 150% steigt, dann sind das 88% mehr.

Das man mit 113% mehr Shadern und 40nm Produktion am Ende 88%
mehr Leistung erhält, halte ich zumindest für realistisch möglich.

Ich sehe keinen Fehler in meiner Prozent-Rechnung.



gruffi schrieb:
Aber, die SP Rechenleistung, und nur das ist für Spiele momentan entscheidend, wächst nicht so stark wie das hier durch solche verzerrten Rechnungen dargestellt wird. Es ist fraglich, ob sie überhaupt in Bereiche wie von G80 zu GT200 kommt.

Also bei Wikipedia ist folgendes aufgeführt:

GTX285 = 1.060 GFlops (SP)
HD5850 = 2.090 GFlos (SP)

Lt. Computerbase-Test sind beide Karten ähnlich schnell.

Wie kann dann deine Aussage passen, das für Spiele ausschließlich SP-Performance interessant ist?
 
Wader22 schrieb:
Vielleicht wird man GPUs und CPUs kombinieren und viel kostengünstiger und effizienter rechnen lassen können
Schon mal was von AMDs APUs gehört? ;)

Eusterw schrieb:
Wie kann dann deine Aussage passen, das für Spiele ausschließlich SP-Performance interessant ist?
Wo liest du das Wort "ausschliesslich"? Bitte keine Sachen erfinden, die nicht dastehen. :rolleyes:
Wenn du dir den Text vielleicht nochmal in Ruhe durchliest, sollte klar werden, dass es hier um Rechenleistung ging und der Bezug zu SP und DP. Und der Punkt ist, Grafik APIs (OpenGL, Direct3D) basieren auf einfacher Genauigkeit. DP Rechenleistung nützt dir hier also herzlich wenig.
 
und dennoch war die GTX285 bei geringerer SP Performance in Gflop/s [Vergleich zur HD 4890] schneller unterwegs...[wie man hier auf CB bei vielen Tests lesen konnte...]
 
Zurück
Oben