News Offiziell: „Fermi“ a.k.a. GT300

Status
Für weitere Antworten geschlossen.
homann5 schrieb:
. Wenn ich eine neue Karte kaufen wollte, würde ich definitv die ersten Tests der nvidia-Karten abwarten, der Verdacht, daß diese schneller als die 5870 sein werden/wird, liegt ja auf der Hand. Wer natürlich zuviel Geld hat, wird jetzt zur 5870 greifen und dann in drei, vier Monaten wieder 300+ € für eine GT300 ausgeben.
.

das ist ja genau das,was Nvidia bezwecken will...doch wieso warten? wenn ich jetzt eine 5870 kaufe,muss ich doch nciht auch den GT300 kaufen,wenn dieser, sagen wir 20% schneller ist?

ich bezweifle einfach mal ganz ganz stark,dass man, wenns um spieleleistung geht, bei Nvidia was besseres für sein Geld bekommt. dh. man kriegt weniger leistung bei gleichem preis, da man für GPGPU etc. mitzahlt.

Wer hingegen stark auf CUDA setzt, der investiert sein geld wohl besser bei nvidia.

Dass sie schneller als eine 5870 wird, sollte klar sein. Die frage ist nur, inwieweit man drauf zahlt. wer jetzt eine 5870 kauft,hat schon mal 3 monate die schnellste karte, und dann immer noch eine die ganz oben mitspielt. Wieso sollte man es jetzt bereuen?

wie gesagt, in drei monaten kreigt man nicht mehr leistung für den Preis.

und paar monate nach dem G300 release kann AMD ja auch shcon erste refresh karten bringen,soll man dann auch warten? warten kann man immer,und man kann nicht sagen,dass der release direkt vor der tür steht.

gruß
 
Zuletzt bearbeitet:
isigrim schrieb:
Die Leistung der Karten zeigt sich auch darin, dass sie in dem nächsten großen Supercomputer des Oak Ridge National Laboratory eingesetzt werden. Dabei soll die "Kiste" eine Leistung von mehr als 10 Petaflops erreichen. (Zum Einsatz kommen dabei laut BSN 2000 bis 2500 Fermis.)
(Der aktuell schnellste Supercomputer, nämlich der Cray Jaguar schafft dagegen nur 1.5 Petaflops.)
Und AMD baut momentan mal eben an seiner Fusion Render Cloud, die 1000 GPUs beinhalten soll. (Angepeilte Leistung: 1 Petaflop)

wenn diese zahlen stimmen hat der gt300 chip eine leistung von 4-5 teraflops. die 5870 hat 2,8teraflops. dieser unterschied ist zwar sehr ordentlich, aber nach den zahlen in der news hätte ich doch mehr erwartet.
 
Hört sich ja alles sehr gut an. Mal schauen ob es auch so schön wird wie es sich anhört ;)

Peace
 
ich bezweifle einfach mal ganz ganz stark,dass man, wenns um spieleleistung geht, bei Nvidia was besseres für sein Geld bekommt. dh. man kriegt weniger leistung bei gleichem preis, da man für GPGPU etc. mitzahlt.

Da weder bekannt ist wie viel die neuen Geforce Karten kosten, noch wie viel sie in Spielen leisten werden, ist das hinfällig.
Über die BQ, Stichwort Antialiasing, AF, Texturflimmern etc. weiß man ebenfalls noch gar nichts, das kann vereinzelt aber schon ein Kaufkriterium sein.
 
Also ich pers. bin ja nicht so ganz glücklich mit dem aktuellen Trend (beider Hersteller), Karten rauszubringen, die eig. nur für GPU-Computing-Zwecke entwickelt worden bzw. darauf ausgerichtet sind.
Wieso soll ich als privater Nutzer beim Zocken 2 Milliarden Transistoren mit Strom versorgen, von denen ich keinen einzigen brauche? Wieso soll ein professioneller Nutzer für seine Berechnungen x-mal jeweils 1 Milliarde Transistoren mit Strom versorgen (und natürlich auch erstmal bezahlen), die dem geforderten Zweck nicht zuspielen?
Da haben die Hersteller irgendwie aus etwas Ganzem nix Halbes und nix Ganzes gemacht... (??? *lol*)
Mit 2 getrennten Produktlinien würde man jeden separaten Markt wesentlich besser bedienen können, aber man muss ja sparen und der Kunde zahlts dann schon >_>
 
es ist zumindest anzunehmen,dass Nvidia sich dieses computing bezahlen lässt. verschenken tun sies bestimmt nicht.


gruß
 
@Schinzie: wer hält dich davon ab, falls die g300 nicht (deutlich) besser/günstiger wird, trotzdem dann noch eine 5870 zu kaufen? das würde nvidia gar nichts bringen, wenn sie nicht wirklich was deutlich besseres abliefern. und dann wäre abwarten für den kunden genau richtig.

ati hat das damals mit der 2900 auch gemacht, und was hat es ihnen gebracht? gar nichts. auch nach dem release wurden die 8800gtx verkauft.

das ist lediglich eine sinnvolle strategie für den kunden, erst zu vergleichen und sich dann festzulegen. zu dem: diese daten deuten eher auf ati hin als gamer karte. g300 ist wohl eher für das profi-segment bestimmt und dementsprechend teuer...
 
Habs mal ein wenig aufgehellt, jetzt erkennt man etwas.
 

Anhänge

  • 12-2.jpg
    12-2.jpg
    57,1 KB · Aufrufe: 672
Zuletzt bearbeitet:
Ich bin mir nciht sicher ob der globale Zusammenhang gesehen wird.

1. Intel wird mit seinem Larrabee Mitte dieses Jahres auf den markt kommen. Es ist ein offenes Geheimniss, das Intel Raytraicing über alle Maße pushen wird, was dank der Entwicklung zur Parallelisierung bereits ende 2010! dazu führen wird, dass einge Titel dauraf Basieren.

2. Der cGPU(GPGPU) Markt wächst aktuell ungemein und die allgemeine unterstützungsbandbreite dieses Chips wird dort einschlagenw ie eine Bombe

3. Nvidias Vertrag für die PS4 mit Sony stand auf der Kippe und für dieses Projekt haben sie soeben ein Meisterstück vorgelegt, wie sie es nicht hätten besser als bewerbung dafür hätten liefern können.

4. Wie schon so oft festgestellt wurde, wird der Gaming Markt für Nvidia immer unwichtiger und trotzdem setzt diese Karte mit einem Schlag AMD (bitte redet nciht immer von ATI) und INTEL unter druck, da sie noch beide Sparten abdeckt.

Das Vorgehen bei dieser Karte ist schlicht brilliand! Anders kann ich es nciht ausdrücken! Es sit ein spagat zwischen Intels Raytraizing planen und bestehenden Gegebenheiten. Machen wir uns ncihts vor 2011 wird es einen Krieg zwischen Rasterisierung und Raytraicing geben, ausgetragen zwischen AMD und INTEL. Wie so oft wird es einige Jahre dauern und am ende wird sich die Technologie durchsetzen, die der Player mit dem längeren Hebel anbietet. Und wie auch immer er ausgehen und verlaufen mag, mit dieser Entwicklung die NV hier vorgestellt hat werden sie es als 3. Player aussitzen können, während der cGPU Markt ihre Kasse sichert.

Wer diese Entwicklung beobachtet hat wird mir zustimmen. Die kommenden Jahre werden in Sachen PC-Entwicklung spannend und am Ende wird es mit etwas Pech nur noch 2 Player auf dem Gamer Markt geben...
 
das hat sich bei dir so gelesen wie ein vorwurf an nvidia, dass sie die käufer zum warten verleiten wollten. aber genau das ist eigentlich eine sinnvolle strategie für den käufer. ob nvidia auch was davon hätte, wissen wir erst, wenn die karten auf dem markt sind. wie gesagt, nach dem was nvidia veröffentlicht hat, sieht es eher nicht danach aus. die karten haben andere schwerpunkte und sind für zocker zu teuer, zu stromhungrig und möglicherweise nichtmal schneller als eine hd5870, die auf reines spielen spezialisiert ist.
 
Dural schrieb:
2z6yrzn.jpg


Ein 8-Pin PCI-E Stromanschluss, somit sind max 225Watt möglich, wie bei der 5870 auch...

Ich sehe ein 6Pin und 8Pin also 226-300 watt

 
Neo_Xsendra schrieb:
4. Wie schon so oft festgestellt wurde, wird der Gaming Markt für Nvidia immer unwichtiger und trotzdem setzt diese Karte mit einem Schlag AMD (bitte redet nciht immer von ATI) und INTEL unter druck, da sie noch beide Sparten abdeckt.

Das Vorgehen bei dieser Karte ist schlicht brilliand! Anders kann ich es nciht ausdrücken! Es sit ein spagat zwischen Intels Raytraizing planen und bestehenden Gegebenheiten. Machen wir uns ncihts vor 2011 wird es einen Krieg zwischen Rasterisierung und Raytraicing geben, ausgetragen zwischen AMD und INTEL.

AMD unterstützt seit der HD2XXX raytraicing mit ihren Grafikkarten und hat schon mehrere Demos veröffentlicht. Somit wird es den Krieg nie geben,da AMD die Technologie schon lange einsetzt/verbaut hat. Nvidia hat jetzt erst nachgezogen, mehr nicht. Bei denen heißt das momentan irgendwas mit cinema XX, nix anderes wie raytracing. und die sind da verdammt effizient.

Eher wird es so sein,dass intel probleme mit rasterisierung hat,da bisher 99% der spiele darüber laufen.

außerdem kann man ATI sagen,dass es die Grafiksparte von AMD ist.

gruß
 
Schinzie schrieb:
das ist ja genau das,was Nvidia bezwecken will...doch wieso warten? wenn ich jetzt eine 5870 kaufe,muss ich doch nciht auch den GT300 kaufen,wenn dieser, sagen wir 20% schneller ist?
Und was, wenn eine GT300 bei gleichem Verbrauch 20% schneller ist? Oder 50 € günstiger?

ich bezweifle einfach mal ganz ganz stark,dass man, wenns um spieleleistung geht, bei Nvidia was besseres für sein Geld bekommt. dh. man kriegt weniger leistung bei gleichem preis, da man für GPGPU etc. mitzahlt.
Siehe oben. nvidia wird sich schon irgendwas einfallen lassen, um den früheren Verkaufsstart von ATI zu kompensieren.

Dass sie schneller als eine 5870 wird, sollte klar sein. Die frage ist nur, inwieweit man drauf zahlt. wer jetzt eine 5870 kauft,hat schon mal 3 monate die schnellste karte, und dann immer noch eine die ganz oben mitspielt. Wieso sollte man es jetzt bereuen?

wie gesagt, in drei monaten kreigt man nicht mehr leistung für den Preis.
Das glaube ich ganz ehrlich gesagt nicht. nvidia kann es sich nicht wirklich leisten, ein eventuell nicht wirklich schnelleres Produkt zu einem höheren Preis zu verkaufen. Deshalb kann man wohl davon ausgehen, daß man mindestens die gleiche Leistung für weniger Geld, bzw. mehr Leistung für das gleiche Geld bekommen wird.

und paar monate nach dem G300 release kann AMD ja auch shcon erste refresh karten bringen,soll man dann auch warten? warten kann man immer,und man kann nicht sagen,dass der release direkt vor der tür steht.
Das kann AMD aber nur, wenn sich die jetzigen Karten gut verkaufen. Sonst fehlt denen schlicht und einfach das Geld.[/QUOTE]

Dario schrieb:
Ich persönlich denke, daß NVidia im Gegensatz zu ATI lange Zeit keine ausreichende Stückzahl liefern kann.
Als ob ATI das könnte! Die 5870 ist jetzt schon eine Woche überfällig und wird laut Aussagen von zwei Shops in Hannover wohl auch frühestens in zwei, drei Wochen in sehr geringer Stückzahl geliefert werden.

Und so gut CUDA auch sein mag, welche Firma wird seine Software noch speziell auf CUDA anpassen,
wenn es jetzt mit DX11 eine einheitliche GPGPU API gibt ?
Das werden viele machen. Schließlich hat GPGPU via DirectX 11 einen ganz gravierenden Nachteil: es funktioniert nur mit Rechnern, auf denen Windows Vista oder 7 läuft.

Da erwächst ein riesen Vorteil für ATI draus. Softwareschmieden werden Ihre Programme dementsprechend
programmieren und während Firma X schon effizient mit dem Cypress berechenen läßt, wartet man bei Firma Y noch
auf dementsprechende Karten der Konkurrenz.
Siehe weiter oben, nvidia wird mit der Portokasse schon dafür sorgen, daß möglichst viele Entwickler weiterhin auf CUDA setzen werden. Und ganz ehrlich, es ist momentan kein Vorteil für ATI. Denn damit die GPGPU-Programmierung über DirectX 11 genutzt werden kann, muss der Benutzer ja auch über eine DirectX 11-Karte verfügen. Und bis das bei der Mehrheit der Fall sein wird, dauert es noch eine ganze Weile.
 
AMD unterstützt seit der HD2XXX raytraicing mit ihren Grafikkarten und hat schon mehrere Demos veröffentlicht.

https://www.computerbase.de/news/grafikkarten/nvidia-zeigt-raytracing-auf-der-gpu.22612/

Siehe weiter oben, nvidia wird mit der Portokasse schon dafür sorgen, daß möglichst viele Entwickler weiterhin auf CUDA setzen werden.

Wozu?
Einer der Vorteile von Fermi ist doch gerade, das eine schiere Masse an Standards unterstützt wird und man eben nicht nur CUDA an der Backe kleben hat. Machs über OpenCL, DirectCompute, die C++ Implementation etc. etc.
 
Zuletzt bearbeitet:
MountWalker schrieb:
@ "GPGPU nutzt dem Gamer nichts"

Das ist teilweise Quatsch, denn in den kommenden (5-10) Jahren werden wir ein Revival von "Software-Renderern" erleben. Rasterisierung läuft ihrem Ende entgegen, weil man für mehr Qualität immer unverhältnismäßiger mehr Leistung verbraucht. (wenn man berücksichtigt, dass hübsche Grafik sehr viel mehr als nur verkleisterte Texturen ist)

Es ist eine Möglichkeit, allerdings nicht die einzige und Raytracing bzw. Raycasting ist sicherlich auch nicht der Weisheit letzter Schluss.

MountWalker schrieb:
Double-Precision braucht man dafür vermutlich trotzdem nicht, aber volle C++ Unterstützung kann schon für den Engine-Programmierer nützlich sein.

Ich weiß wirklich nicht was C++ Support bei so einer Architektur bringen soll. C++ wurde ursprünglich für sequentiell arbeitende CPUs entwickelt. Es bietet von der Sprache her einfach keine Konstrukte an, die eine effiziente Programmierung von so vielen Recheneinheiten vorsieht. Natürlich kann man entsprechende Bibliotheken und Frameworks um C++ herumbauen, die das ermöglichen, allerdings stellt sich dann die Frage, warum man nicht z.B. einfach OpenCL dafür benutzt. Denn eins sollte klar sein, ein Standard C++ Programm wird zwar evtl. auf einer solche Karte ausführbar sein, aber selbst gegen die aktuellen Low-Cost CPUs keinen Blumentopf gewinnen.


MountWalker schrieb:
Zumal echte Physik, die nicht nur optisches Schmankerl ist, sondern rückwirkt, fürs Spiel auch wichtig sein kann.

Das wäre wünschenswert. Allerdings sehe ich da das Problem auf die Entwickler zukommen. Bisher war es so, dass zuerst die CPU sich um die Spiellogik gekümmert hat und dann die Daten zur GPU geschickt hat, die sich um die Grafik und um Teile der Physik (hauptsächlich zusätzliche Grafikeffekte) gekümmert hat. Sobald aber die GPU Physikberechnungen vornimmt, die für die Spiellogik relevant ist, werden sehr viel mehr Daten zwischen CPU und GPU ausgetauscht werden müssen. Dann aber hat man das Problem der Latenzen und auch der recht geringen Bandbreite zwischen CPU und GPU. Da es bisher kein Spiel gibt, dass entsprechend designed ist, nehme ich als Beispiel einfach mal x264 Videocodec. Einige Entwickler haben damit beschäftigt die geeigneten Teile des Codecs auf die GPU auszulagern, da sie dort 10-20x schneller berechnet werden konnten. Allerdings wurde das ganze dadurch zunichte gemacht, dass Latenzen zu hoch und die Bandbreite zu gering war, so dass es keinen signifikanten Leistungssteigerungen gegeben hätte.

homann5 schrieb:
Bis OpenCL PhysX oder Havok ablösen wird, dauert es aber mit Sicherheit noch lange. Dafür wird ja alleine schon nvidias Portokasse sorgen, in dem Entwickler, die auf PhysX setzen "gesponsort" werden.

Da wäre ich mir nicht so sicher, zumindest bei den größeren Projekten. Denn schließlich verdienen die Entwickler immer noch mehr Geld durch verkaufte Spiele als durch Sponsoring. Wenn PhysX nicht beim OpenCL / Compute Shadern nachzieht, werden sie zwangsläufig Marktanteile verlieren, ganz einfach, weil die Entwickler dann entweder alle nicht nVidia-Kartennutzer mit stark beschnittenen Effekten abspeisen müssen oder 2 Physikengines einbauen müssen, eine für nVidia und eine für den Rest (zur Zeit nur AMD, später aber auch Intel). Natürlich könnten sie die 1. Variante wählen, aber das würde es der Konkurenz sehr einfach machen für einen großen Teil der Kunden (nämlich alle nicht nVidia-Kartenbesitzer) optisch schönere Effekte zu bieten und wenn man auch noch für die Spielelogik relevante Physik verwendet, hat man auf einen Schlag >30% aller potentiellen Kunden ausgeschlossen.

Gades schrieb:
wenn diese zahlen stimmen hat der gt300 chip eine leistung von 4-5 teraflops. die 5870 hat 2,8teraflops. dieser unterschied ist zwar sehr ordentlich, aber nach den zahlen in der news hätte ich doch mehr erwartet.

Ich glaube, du hast da etwas durcheinander gebracht. Die Angaben von wegen 4-5x Leistung der GT200 bezog sich ausschließlich auf Double Precision Berechnungen und da kann die G280 gerade mal mit einer HD3870 mithalten. Bei Single Precision hat die HD5870 von der Rohleistung her immernoch einen Vorspung gegenüber dem G3xx (laut c't etwa 2.7TFlops zu 2TFlops). Bei DP scheint es dagegen dann recht ausgeglichen zu sein. Dabei sollte man natürlich berücksichtigen, dass für GPGPU Anwendungen nVidias 1D Architektur mit den zusätzlichen Caches usw. deutlich besser geeignet sein sollte als die eher für Grafikberechnungen ausgelegte 5D Architektur von AMD/ATI.
 
Zuletzt bearbeitet:
Nachdem ich die Videos zur Präsentation gesehen hab und die Datenblätter überflogen habe, war ich erstmal verwirrt, ob ich hier schon die Präsentation einer Grafikkarte gesehen hab oder die eines wissentschaftlichen Supercomputers.

Nivdia möchte eindeutig zeigen, wo der Weg hin gehen soll. Wenn man die vorherigen Grafikkarten hauptsächlich zum Spielen verwendet hat und teilweise für CUDA-Programmierung, kommt es mir vor, als haben sich die Aufgabenbereich der Karte diametral geändert. Man kann mit doppelter Präzision Berechnungen ausführen, unterstützt diverse Programmiersprachen etc. und ganz nebenbei kann man auch noch damit spielen. Allerdings sollen feste Bestandteile von DX11 wie Tesselation durch Software emuliert werden (?). Ob die Rechnung (mit den Spielern) aufgehen wird, wird man bei ersten Tests sehen. Mein Standpunkt ist, dass ich nicht dafür bezahle, was ich nicht auch nutze. Auch wenn das erst in ein paar Jahren sein sollte.
 
Zuletzt bearbeitet:
homann5 schrieb:
Siehe weiter oben, nvidia wird mit der Portokasse schon dafür sorgen, daß möglichst viele Entwickler weiterhin auf CUDA setzen werden. Und ganz ehrlich, es ist momentan kein Vorteil für ATI. Denn damit die GPGPU-Programmierung über DirectX 11 genutzt werden kann, muss der Benutzer ja auch über eine DirectX 11-Karte verfügen. Und bis das bei der Mehrheit der Fall sein wird, dauert es noch eine ganze Weile.
Du hast nur übersehen, dass mit DX11 Cuda quasie abgelöst wird, durch OpenCL.
Das trifft auch auf Ati zu, da OpenCL eine Api von DX11 ist und damit nicht mehr Herstellergebunden wie Cuda/PhysX bzw Stream. Trotzdem werden natürlich Ati und nVidia diese noch in ihre Treiber packen, da man ja nicht die vorhandenen Anwendungen so von jetzt auf eben mal vergessen kann.
 
@BustaFiles das ist nicht richtig. OpenCL hat nichts mit DX11 zu tun. OpenCL wird von der Khronos Group entwickelt und gehört damit zur selben Familie wie OpenGL. Allerdings bietet DX11 etwas ähnliches, nämlich Compute Shader.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben