News Offiziell: „Fermi“ a.k.a. GT300

Status
Für weitere Antworten geschlossen.
@MountWalker
Nach dem was die da mit der Fake Tesslakarte abgezogen haben glaub ich da gar nix mehr auch keine berechnungen. Das hat niemand gesehen auf was da mit was berechnet wurde die gefakte Karte schon.
Und NV hats dann auch noch bestritten das sagt wohl allles. Unterste Schublade ist sowas.
 
Zuletzt bearbeitet:
Na @Winterday, das waren jetzt aber 0 Punkte für deinen Beitrag, das war was für die Tonne.
@Turbostaat: nVidia hat nur eine Architektur vorgestellt, die dazugehörigen Consumer-Grafikchips oder -karten mit selbigem nicht. "Fake Launch" mag ja ein schönes Wort sein, passt aber hier nicht her. Die GTX 3xx Produktfamilie (so sie denn so heisst) wurde bislang nicht vorgestellt. Bis zum (Paper-?) Launch ist also noch ein paar Tage Zeit...
Es ging hier nie um die Produktfamilie, wer lesen kann ist stark im Vorteil (da zu kommt ev. frühstens erst was Ende des Jahres was zur Planung, wenn Nvidia das mit dem Chip im Griff hat).
Es sollte eigentlich ne P R Ä S E N T A T I O N der G300-Grafikkarte auf der GTC sein , dies ja garnicht mal gibt.

Es war leider halt nur ne reine Fake-Show, was hätte sein können oder mal sein soll, nicht mehr u. nicht weniger.
Wer was anders sagt läuft mit ner rosaroten Filzbrille durch die Gegend (gibt leider noch viele Dünnbrettboher [uneinsichtige, verbohrte Fanboys])

Selbiges kann AMD/ATI ja genauso auch schon kommende Woche mit nem RV970 machen!!!
Wird dann halt auch nen Gehäuse im Hobbykeller zusammen gebastelt u. vorgeführt,
das kann jeder schon für Hartware machen, die irgendwann in soner oder ev. ähnlich (weil geänderten) Ausführung erscheinen soll. Papierdaten können u. ändern sich auch meist, weil sie so ev. nicht zu realisieren sind (zu teuer, überdiemensioniert mit Fkt. die nicht gebraucht werden, nicht auf den Chip/der Graka unterzubringen sind...).
 
Zuletzt bearbeitet:
@mountwalker: du bist dir also sich das die demos auf fermi-hardware liefen? kannst du da irgendwelche quellen außer fudo und offizielle nvidia-statements nennen? hat irgendwer die hardware gesehen?

Neo_Xsendra schrieb:
der aber so weit sit das es ein verbindlcihes nda gibt (was bedeutet das die karten schon bei den testern SIND!)
karten bei den testern? träumer. um die specs so lange wie möglich unter verschluss zu halten, werden solche karten erst wenige tage vor dem fall der nda an tester verschickt. von der 5870 gab es in deutschland 8 karten und die kamen 3-5 tage vor der vorstellung bei den redaktionen an. nach den reviews mussten die karten wieder zurück.
 
Zuletzt bearbeitet:
Es sollte eigentlich ne P R Ä S E N T A T I O N der G300-Grafikkarte auf der GTC sein , dies ja garnicht mal gibt.

Nö, es sollte keine Grafikkarte vorgestellt werden und es wurde auch keine vorgestellt.
Es wurde nVs next-gen Architektur vorgestellt und eine zersägte Karte in die Luft gehalten, mehr nicht.

Wer sich die Konferenz mal im Webcast angesehen hätte, würde wissen, das z.B. die Raytracing Demos auf GT200 Hardware liefen und das auch offen gesagt wurde.

Übrigens ist G300 ungleich GT300. ;)
 
@White_Eagle

Sorry aber dein Post war ein 0-Punkte

es sit weder beweisbar ob eine gt300 da LIEF oder ob es ekine gab. unbestreitbar war die karte in seiner hand gefaked, aber allein die tatsache, das seiten wie CB bereits unter nda stehn beweist das es die karten gibt und sie funktionieren.

ich würd mcih nicht als fanboy bezeichnen aber ich gehör zu den leuten die glauben, das die vorstellung, mal abgesehen von der dummy karte die fotografiert werden durfte abgesehen, eben nciht gefaked war.

ausserdem, hast du bestimmt zu den leuten gehört die bei den ersten vorführungen des 870 in geschlossnen gehäusen auch gesagt hat "DAS IST NATÜRLICH DER 870! KEIN ZWEIFEL!"

EDIT: @screemer und was sagt es uns dann das CB unter nda steht aktuell????:freak:

EDIT2: @white_eagle unter mir: ich sagte nciht sie hatten nen karton karten. es kann durchaus sein das die ausbeute mies sit, allerdings halte cih es für fraglich jedes gerücht als bare münze zu nehmen und zu behaupten es gäbe den chip nicht. halt dich lieber an ofiziellere quellen und an erfahrungen aus der vergangenheit. und diese besagten ganz klar:
es besteht bereits nda für bestimmte seiten
es wird darauf beharrt das der GT300 lief (was uns sagt das nicht die karte in der hand gemeint war)
Nvidia gibt zu nciht die beste chipausbeute zu haben aber die 2% sind schlicht unwahr
und das jahresende ist IMMERNOCH offiziell angestrebt.
 
Zuletzt bearbeitet:
@Neo_Xsendra, alles klaro, wenn du es sagst, dann wird es wohl auch so sein, du hast ja sooo recht u. die haben nen ganzen Karton voll Grakas u. zeigen dafür nen Dummy, welcher als fkt.fähiger Prototyp den Leuten verjubelt wird.
Das Problem ist laut einigen Quellen einfach, dass es kaum funktionierende Chips gibt, die Ausbeute ist wohl z.Zt. maginal.
 
@Antimon
Und was ist daran so besonders? Ist doch absolut nichts neues das Chips jahrelang entwickelt und geforscht wird und man eine neue Arccitektur nicht innerhalb von 1-2 Jahren macht.
 
@Screemer:
von der 5870 gab es in deutschland 8 karten und die kamen 3-5 tage vor der vorstellung bei den redaktionen an.
hast du mal den cb-test zu der 5870 gesehn? glaubst du im ernst, dass wolfgang sowas in nur 3-5 tagen aus dem boden stampfen kann?
zu dem gabs glaub ich mehr als 8 tests zu der karte...

die karten waren schon ne weile unterwegs und mussten untereinander ausgetauscht werden. das ist sicher nicht erst auf den letzten drücker passiert. und zu dem zeitpunkt waren auch schon mehr als 8 karten auf dem weg zu den händlern ;)
 
Heieiei, was für ein Chaos hier. Es heißt ein Forum ist nur so gut wie die Qualität der Poster - mann, mann sinkt ComputerBase unter dieser Aussage ein :p

Euch allen ist doch sicher klar, dass es im Kampf "Fanboy vs. Fanboy" nur Verlierer gibt? Wie kann man sich nur an Spekulationen so in Rage reden? Ich habt keine Fakten, doch wisst ihr alles. Wie im Kindergarten - ehrlich!

Fakt ist bisher nur:
- erste technische Daten des GT300 / Femi ---> beindruckend, aber Tests fehlen
- Präsentation von eine GPGPU Veranstaltung mit Schwerpunkt "Femi"
- es wurden keine unrealistischen Balkendiagramme gezeigt wie in den Vorgängerversionen GT200 vs RV770
- ATI 5800er Serie erschienen, aber nicht oder nur schwer lieferbar (schade)


Spekulation:

Performance
schneller als Radeon HD 5800? möglich, evtl. sogar wahrscheinlich, siehe 4870x2 vs GTX295 Single-PCB - Nvidia hatte hier auch mehr Zeit und hat in Relation ein bessere Produkt abgeliefert. Ob es diesmal wieder zutrifft werden wir sehen müssen - daran kann auch ein "Charlie" nichts ändern

Stromverbrauch
Ungewiss - gleich oder zumindest ähnlich wie ATI --> laut Nvidia. Näheres wird erst nach Ablauf der NDA feststehen.

Kühlung
Temperaturen und Kühlungsdetails unbekannt. Der zu sehende Lüfter ist Nvidia-typisch, wobei uns das Chrome wie in den Workstationversionen besser gefallen würde, geben wir es doch zu :lol:

Design
Designstudie in Präsentation / Demo wohl echt! Ob Fake oder Real ist doch egal. Vielleicht hat er das Ding selbst gebaut und ist so stolz, dass er es allen zeigen will (Gott, was für Spekulationen).
Dachtet ihr ernsthaft, die GT300er kommen nur mit einem DVI-Anschluss heraus? Da ihr unwissenden Hühner nur gackern könnt, sage ich euch, dass es bei Nvidia Quadros spezielle Anschlüsse (DMS-59) gibt, die über eine Kabelpeitsche z.B. wahlweise DVI oder VGA auf mehrere Monitore ausgeben.

Erscheinungstermin
Irgendwann halt, da keine verbindliche Angabe gemacht :evillol:
ComputerBase und andere seriöse Quellen behaupten es wäre Ende November / Dezember. Lassen wir das doch erst einmal so stehen und sehen weiter
 
Lübke schrieb:
@NoD.sunrise:
in sachen direct x ist nvidia mit der 8800gtx der 2900 nicht nur zeitlich vorraus gewesen ;) zwar hatte die 38x0 von ati dann dx10.1 auch offiziell, aber angebelich war das gros der vorraussetzungen für dx10.1 bereits im g80 schon erfüllt. ich denk nicht, dass ati hier einen erfahrungsvorsprung hat.

Der g80 war zwar zeitlich früher da aber es geht um etwas ganz anderes - DX10 sollte ursprünglich sehr viel mehr umfassen als es letztlich tat. Nvidia hat sich aber quer gestellt, als DX10 dann doch etwas kleiner veröffentlicht wurde hatte ATI aber schon das meiste in seine hd2900 integriert.
Das ist auch der grund warum ATI dann sofort DX10.1 unterstützt hat - die Karten konnten es so oder so schon.
Den größten Teil von DX11 hätte auch schon eine HD2900 abdecken können, entsprechend hat ATI nun schon Erfahrung mit 3 Generationen sammeln können.

Nvidia baut alles was über DX10 hinausgeht im GT300 zum ersten mal ein.
 
*g* was bin ich grad froh das diese fakten und spekulationen meine 2. edit nicht wiedersprechen (dafür aber sehr viel mehr zusammen tragen)

für die übersicht übrigens danke, kompakter hab ichs bisher nicht gesehen :)

naja in ein paar wochen wissen wir mehr ^^ ich muss dann mal ;3
 
@Hardware_Hoshi: nette zusammenfassung der wichtigsten aussagen :) imho kann man das so stehen lassen^^

@NoD.sunrise: das ist mir neu und würde mich auch etwas wundern, wenn mikrosoft sich von nvidia vorschreiben ließe, wie ihr direct x auszusehen hat. Oô
hast du mal ne seriöse quelle für deine aussage?
 
Es ist schon erstaunlich, daß noch kein Mod diesen Thread mit den Worten "es wurde alles gesagt...mehrfach" geschlossen hat. Ich hätte die Wette verloren.
 
trader2 schrieb:
Es ist schon erstaunlich, daß noch kein Mod diesen Thread mit den Worten "es wurde alles gesagt...mehrfach" geschlossen hat. Ich hätte die Wette verloren.

Was glaubst du wie man sonst auf über 800 Posts kommt? ^^
Beim Artikel der 5870 sinds inzwischen wahrscheinlich über 1500 (ich hab den Post 1337 geschrieben :freak:)
 
RattenLord schrieb:
nvidia sollte cps bauen...
nen eignen sockel.
Eine Cpu-GPU benutzen...also eine Art Hybrid...eine Cpu die halt 100% flexibel ist aber auf die "CUDA"-Cores der GPU zurückgreifen kann..
das gäbe eine CPU die alles übertreffen würde...
So plant es wohl auch ati mit fusion....
intel packt einfach nur eine IGP mit ins Gehäuse der CPU und betreibt simple intigrität..anstatt..."Fusion"

Im HPC-Bereich wird es sicherlich darauf hinauslaufen, dass man Hybridarchitekturen einsetzt. Je nach Aufgabenbereich hat mal die CPU und mal die GPU Vorteile. Bei der CPU Architektur erreicht man unabhängig vom Aufgabenbereich eine Rechenleistung in der Größenordnung der Peakleistung wohingegen GPUs sehr empfindlich auf ungeeigneten Code reagieren. In solchen Fällen ist die GPU statt 20x schneller plötzlich um einen ähnlichen Faktor langsamer als eine CPU. Mit einem Cluster aus CPUs kannst du also "jedes" Problem lösen, mit GPUs nur geeignete Probleme (Parallelisierbarkeit des Problems vorausgesetzt).

Je nach Problem wird man also eher CPUs verwenden und streamcomputing-fähigen Code auf deren MMX/SSE/Altivec/... Erweiterungen ausführen oder eine CPU-GPU Kombi ala Fusion einsetzen, wenn sich der "normale" und der streamcomputing-fähige Code die Waage hält oder eben Standard CPU mit dicken GPUs dazu, falls hauptsächlich streaming Leistung gefragt ist.

In den ersten beiden Fällen hat nVidia eher schlechte Karten, denn ihnen fehlt einfach eine gute CPU-Architektur. Eine eigene Architektur aus dem Boden zu stampfen, die sich mit Intels Core-, AMD Opteron- oder IBM Power-Architektur messen kann wird viel Zeit und noch mehr Geld verschlingen. Sinnvoller wäre es da vielleicht sich eine CPU Partner zu suchen, der selbst keine GPUs herstellt, wie z.B. IBM. IBM ist stark bei den herkömmlichen CPU-basierten Supercomputern und hat mit Cell auch schon Versuche in Richtung Streamcomputing unternommen. Bei den richtigen Streamcomputing-Architekturen wie GPUs haben sie dagegen nichts zu bieten.

Wie auch immer, es wird interessant werden. Im Streaming Bereich werden sich zuerst einmal Intels Larabee und nVidias Fermi streiten. Larabee vermutlich mit höhere Effizienz und Fermi mit deutlich höhere Rohpower. Was am Ende mehr bringt muss man erst noch sehen. AMD ist in dem Bereich ein wenig halbherzig. Die Basis ist zwar da, aber was noch fehlt sind gute Tools und sonstige Angenehmlichkeiten für die Entwickler. Da hoffe ich einfach auf die nächste Chipgeneration, die ja auf einer komplett neuen Architektur aufbauen soll. Von der Zeit her würde das problemlos reichen, denn bis sich Streamcomputing etabliert werden noch einige Jahre und GPU Gernerationen vergehen.

Für den Heimgebrauch sollten allerdings die Hybridarchitekturen wesentlich interessanter sein, denn nur wenige Produkte im Consumerbereich können etwas mit Stream-only Architekturen anfangen. Und bei der herkömmlichen Aufteilung CPU + extra Grafikkarte mangelt es einfach an Bandbreite zwischen CPU und GPU.
 
Zuletzt bearbeitet:
hier wurde überhaupt nichts gesagt auser "blabnlabla" "tratratra" :D
Nvidia Hin
ATI weg
Intel her
xD
ONBOARD FTW!!!​
:evillol:
 
NoD.sunrise schrieb:
Nvidia baut alles was über DX10 hinausgeht im GT300 zum ersten mal ein.

Erst informieren und dann schreiben!

GT21x haben alle DX10.1 und die wurden in 40nm schon (GT216 / GT218) an diverse OEMs ausgeliefert!
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Zurück
Oben