News Nvidia GT300 erreicht finale Designphase?

@Drachton: Ich hoffe GTX380 Preise unter 500 EUR

Es gab übrigens Berichte wonach Nvidia ebenfalls bei Global foundries angefragt hat. Industriespionage dürfte hier kein Hindernis sein, bei TSMC wusste auch schon jeder Hersteller vorab was der andere tut... UMC und IBM gibts auch auch, aber ich denke schon, dass es bei TSMC bleiben wird, langfristig evtl. auch besagte Global foundries

Edit: Soviel zum Thema, NV kommt mit dem G300 nicht vorran :):
Nvidia G300-Samples mit 700/1600/1100 MHz
 
Zuletzt bearbeitet:
@Einhörnchen

Wie wir in Zusammenarbeit mit der Newsseite Brightsideofnews in Erfahrung bringen konnten...

:freak::rolleyes: ja ne is klar.....
 
Volker schrieb:
Boa sehr geiler Artikel Mod85.



Aber y33ha hat es ja auch schon angesprochen. Das ist Zunkunft ... Ich glaub wir sollten gewissen Seiten in manchen Themenbereichen auf ne schwarze Liste setzen. Ich werd da intern mal was anregen.

Da solltest aber als aller erstes inquirer auf die liste setzen, denen du gerade nen guten artikel nachsagst, denn was die schreiben ist noch viel mehr müll als das was hardware-infos,bson und fud zusammen schreiben. Besonders wenn es in bezug auf Nvidia geht, Charlie schreibt ja schließlich seit Jahren Müll über Nvidia kämpft seinen privaten Krieg mit denen, wieso auch immer.
 
Zuletzt bearbeitet:
The INQ produzieren aber teils auch vernünftiges Zeug - wenngleich Charlie auch teils n Rad ab hat -, HW-Infos sind damals mit der Shader-Domäne des RV770 übel auf die Nase gefallen und dieses Hin und Her mit BSoN/Theo Valich als "Quelle" machts imo nicht besser. Sollten sich die Daten als Bullshit erweisen, wars das.
 
@MoD85: Ja, an den Artikel hab ich auch grad gedacht ;)

@Volker: Sag bloß, du liest die Inq Artikel vom Charlie nicht über NVIDIA. Das gehört IMO zum lustigsten, was es so im Netz zur Hardware zu lesen gibt, egal obs stimmt oder BS ist :)

Mister79 schrieb:
Naja, dann hätte NV noch das P/L und ich glaube irgendwie noch nicht dran, dass AMD eine Karte baut die sau günstig ist aber wirklich die Mehrleistung zu einer 285 hat.

1. kann NVIDIA jetzt schon teilweise nicht konkurrieren im P/L. Siehe 4770. Die GTS 250 ist am untersten Ende angelangt, die 4770 kann aber noch n gutes Stück runter. Alles andere drunter wird leistungsmäßig abgesägt. ;)

2. warum sollte AMD ne "sau günstige" Graka anbieten, die die 285 schlägt? :watt:

Nur weil du meinst, die 1000€ EE von INTEL wär der Nabel der Welt und würde jede AMD CPU wegrul0rn, traust du AMD nicht zu, vernünftige Grafikkarten anzubieten? Hast du die letzten 2 Jahre irgendwie verpasst oder warst du im INTEL-Schlaraffenland? :D

Einhörnchen schrieb:
Mir ist das nicht bewusst... beide Hersteller haben massive Probleme mit TSMCs 40 nm, NV kann auf ein sehr ausgereiftes GPGPU Featureset zurückgreifen, ob und wieviel AMD von dem DX10.1 Vorsprung übernehmen kann ist fraglich (übrigens ist NV Mitglied beim DX Board, d.h. sie 10.1 Features wurden von NV mitbestimmt).

Ja, beide haben Probleme. NVDIDIA und ATI sind verspätet mit 40nm. ABER ATI hat jetzt schon funktionierende 40nm Chips am Start. Zusammen mit DX10.1 Features und GDDR5. Und das, obwohl der RV740 sogar noch größer sein soll als GT216 oder GT218, die *vielleicht* zur Computex kommen, die Verfügbarkeit von echten Grakas steht nochmal aufm anderen Papier.
ATI hat zudem bei DX auch n Wörtchen mitzureden. Die haben schön brav alles umgesetzt was mal für DX10 geplant war, aber auf Druck NVIDIAs wieder teilweise gestrichen wurde. Sehr interessant. Also sind die grünen noch mehr Fortschrittsbremser, als ich vorher schon gedacht habe. Vermutlich hatten sie ihr Zeug fertig, und wollten ATI abwürgen. Hat ja gut geklappt. Na wenn da der Bumerang mal nicht wieder zurückkommt. Immerhin hat ATI schon teilweise die Hardware für DX11 integriert (Tesselation), was NVIDIA entweder jetzt nachholen muss, oder per Software emulieren. Wer weiß was da noch kommt. Zusammen mit dem weitherhin riesigen Chip und dann noch GDDR5 seh ich schon einige Probleme, die ATI nicht hat. Steht alles schön aufgesschrieben im Link von MoD85-->lesen-->verstehen.
Ich würde nicht *alles* von Charlie als "Müll" abtun.
Ein blindes Huhn findet auch mal ein Korn.

AffenJack schrieb:
Da solltest aber als aller erstes inquirer auf die liste setzen, denen du gerade nen guten artikel nachsagst, denn was die schreiben ist noch viel mehr müll als das was hardware-infos,bson und fud zusammen schreiben. Besonders wenn es in bezug auf Nvidia geht, Charlie schreibt ja schließlich seit Jahren Müll über Nvidia kämpft seinen privaten Krieg mit denen, wieso auch immer.

Siehe oben. Ist nicht alles Müll von Charlie.

Hier hat er geschrieben, das der RV770 gegen die GTX260 antritt, und diese beim Preis deutlich unterbieten wird. Genauso wie die Vorraussage, dass der R700 die 380 schlägt und trotzdem billiger ist (wenn man die Einführungs UVPs vergleicht, stimmt das).

Oder hier, dass die GTX295 erst mit dem Die-shrink kommt.

Oder das der GT212 tot ist.


Klar, man kann genug Gegenbeispiele finden, aber wie gesagt, nicht alles ist Müll und man sollte schon genau zwischen den Zeilen lesen. Auch wenns als NV Fan schwerfällt :evillol:
 
y33H@ schrieb:
HW-Infos sind damals mit der Shader-Domäne des RV770 übel auf die Nase gefallen und dieses Hin und Her mit BSoN/Theo Valich als "Quelle" machts imo nicht besser. Sollten sich die Daten als Bullshit erweisen, wars das.
Ich weiß nicht, wie oft ich die Geschichte damals mit der Shader-Domäne und RV770 in diversen Foren abgehandelt habe. Aber offenbar gibt es immer noch welche, die genau darauf treten müssen, daher noch mal in Kurzform: AMD hat uns via Kontaktformular seinerzeit bewusst falsche Dokumente (insgesamt drei) zugespielt - dies wurde übringens in den damaligen News auch schon so geschrieben -, die ich auch später online gestellt habe.
Nach dem Launch haben diejenigen es zugegeben - eine bewusste Täuschung, um aus dem Hinterhalt des Raumes zu kommen. Entschuldigt haben sie sich dafür bis heute übringens nicht. In der Tat ist das ein Imageverlust, den man nur schwerlich wieder gerade bügeln kann. :(

Und zu BSON und Hardware-Infos ist soweit auch alles gesagt: Theo und ich haben viele, unterschiedliche, Nvidia-nahe Quellen. Wir haben uns vor ein paar Wochen entschlossen, sie gegenseitig offenzulegen und gemeinsam über G300 zu berichten.
Weil damit aber offenbar der ein oder andere ein Problem hat, wird es auch demnächst so ablaufen, dass die G300-Geschichten abwechselnd kommen. Heute waren wir mit den Taktraten der laufenden A1-Samples dran; wenn wir dann hoffentlich bald ein Bild vom Chip veröffentlichen, hoffe ich, sind die letzten Zweifel ausgeräumt.

@ Volker
Welche Seite(n) willst Du auf die "schwarze Liste" setzen?
 
@KonKortT
Kannst du dir erklären, warum Charlies und eure Quellen so unterschiedliche Aussagen zum TapeOut treffen? Denn TapeOut Anfang Juni (Iinquirer) und jetzt schon beim Testen des A1 bzw. TapeOut in Q1 ist ja schon ein enormer Unterschied.

Damit will ich weder deine/eure, noch die Quelle von Charlie, anzweifeln. Es scheint aber naheliegend, dass irgendwer mit falschen Informaitonen versorgt wird.
 
Entweder falschinformationen wie du schon sagst, oder worüber auch spekuliert wird, dass es unter umständen 2 chips gibt. G300 als Desktopchip der sein Tapeout schon hatte und GT300 als Profichip, der später kommt und den Charlie dann mit G300 verwechselt.
Daher nagut, immer schreibt Charlie auch nicht blödsinn, aber wirklich oft genug.
 
Zuletzt bearbeitet:
Jo Charlie ist auch ein Nvidia-Hasser, das wissen wir. Aber das andere Zeug sieht einfach zu schlecht aus und widerspricht sich teilweise, und wie du selbst schon gesagt hast, immer schreibt der gute Mann vom Inq auch keinen Blödsinn. Und nur weil 2 Seiten sich gegenseitig Infos zuschustern und das dann verkaufen, wird es nicht wahrer. Theo Valich hat sich bei TG Daily und Co vorher auch nicht immer mit Ruhm bekleckert, auch wenn er fast so bekannt ist wie Charlie oder Fudo - eben auch ein zweifelhafter Ruf. Wobei Fudos Infos zumeist wirklich stimmen, er sich nur nie an NDAs hält. Deshalb verlinken dahin immer alle Seiten, weil sie eigentlich die gleichen Infos haben, es aber nicht sagen dürfen^^

Fakt ist, wir werden mit solchen Sachen kürzer treten, besonders bei bestimmten Personen und (deren) Quellen/Seiten.
 
Also was mir voll einleuchtet bei Charlies Argumentation:

"Okay, ATI stated that it will have DX11 GPUs on sale when Windows 7 launches, purportedly October 23, 2009. Since this was done in a financial conference call, SEC rules applying, you can be pretty sure ATI is serious about this. Nvidia on the other hand basically dodged the question, hard, in its conference call the other day."

ATI hat sich also schon festgelegt (leider steht da nicht wann). NVIDIA hat sich aber eindeutig *nicht* festgelegt. Das kann man nachlesen. (das ist Charlies Kurzform, das volle Interview gibts hier.

Keine Aussagen zu DX11 Hardware. Wenn das Tapeout wirklich schon stattgefunden hätte, hätte sich Jen-Hsun doch in irgendeiner Art und Weise dazu geäußert, oder nicht?

Das andere ist folgendes.

"Nvidia Investor Relations tells people that between five to ten per cent of the GT200 die area is dedicated to GPU compute tasks. The GT300 goes way farther here, but let's be charitable and call it 10 per cent."

Die Aussage kommt also von NVIDIA selbst, dass ein gewisser Teil des GT200 allein für GPGPU zur Verfügung steht.
Ich kann mir ehrlich gesagt nicht vorstellen, dass man von der Strategie abrückt. Dann hätte man das schon beim GT200 tun können, oder nicht?
Also zwei "verschiedene" "GPUs" entwickeln, obwohl beide prinzipiell das Gleiche können (vor allem mit DX11 und OpenCL) halte ich für ausgeschlossen.

Aber ich lass mich gern überraschen.
 
Zuletzt bearbeitet:
Moros schrieb:
@KonKortT
Kannst du dir erklären, warum Charlies und eure Quellen so unterschiedliche Aussagen zum TapeOut treffen? Denn TapeOut Anfang Juni (Iinquirer) und jetzt schon beim Testen des A1 bzw. TapeOut in Q1 ist ja schon ein enormer Unterschied.

Damit will ich weder deine/eure, noch die Quelle von Charlie, anzweifeln. Es scheint aber naheliegend, dass irgendwer mit falschen Informaitonen versorgt wird.
Eine eindeutige und sichere Antwort kann ich dir darauf nicht geben. Fest steht aber, dass Nvidia und Charlie vor ein paar Jahren einen großen Streit hatten, der unter anderem auch darin mündete, dass er keine NDAs mehr bekam, und er folglich seit dem in gewisserweise The Inquirer und dessen Bekanntheitsgrad dazu ausnutzt, Nvidia runterzuputzen.
Weil eine Menge um diesen Umstand wissen, stecken sie ihm gerne angebliche, negative Nvidia-Meldungen zu, die auch manchmal wirklich stimmen, oftmals aber eben aus der Luft gegriffen sind. Problematisch ist es, dass Charlie inzwischen völlig egal ist, ob das, was er schreibt, richtig oder falsch ist. The Inquirer hat den Ruf, den es hat, und da wird eine richtige oder falsche Meldung kaum noch einen Unterschied machen.

Zum aktuellen GT300-Thema, von dem bisher eigentlich nur er sowie Theo und ich berichtet haben: Theo und ich haben mehrere, unabhängige Quellen, die die bis dato veröffentlichten Informationen einstimmig bestätigen. Warum Charlie so komplementär schreibt, könnte zwei Gründe haben: Er wurde wieder mit Fehlinfos gefüttert oder Nvidia plant wirklich, wie AffenJack schon schrieb, zwei Chips für Desktop und Profi vorzustellen (also G300 und GT300).
Ich fand die 2,4 Millarden Transistoren beim G300 relativ wenig bzw. hätte bei der zu erwartenden Performance, Anzahl an Recheneinheiten etc. mit knapp 3 Millarden spekuliert. Möglicherweise hat man hier wirklich Ballast wie die Double-Precision-Einheiten abgelegt und spart sich diese für den Profimarkt mit GT300 auf. Aber das ist jetzt wirklich auch nur meine persönliche Spekulation, die ich noch mit keinen Quellen untermauern kann.
 
KAOZNAKE schrieb:
ATI hat sich also schon festgelegt (leider steht da nicht wann). NVIDIA hat sich aber eindeutig *nicht* festgelegt. Das kann man nachlesen. (das ist Charlies Kurzform, das volle Interview gibts hier.
Wann war das bei Nvidia anders?
KAOZNAKE schrieb:
Keine Aussagen zu DX11 Hardware. Wenn das Tapeout wirklich schon stattgefunden hätte, hätte sich Jen-Hsun doch in irgendeiner Art und Weise dazu geäußert, oder nicht?
Nein, haben sie beim GT200 nur wenige Monate vorher, beim G80 warens sogar nur wenige Wochen.
KAOZNAKE schrieb:
Die Aussage kommt also von NVIDIA selbst, dass ein gewisser Teil des GT200 allein für GPGPU zur Verfügung steht.
Ich kann mir ehrlich gesagt nicht vorstellen, dass man von der Strategie abrückt. Dann hätte man das schon beim GT200 tun können, oder nicht?
Also zwei "verschiedene" "GPUs" entwickeln, obwohl beide prinzipiell das Gleiche können (vor allem mit DX11 und OpenCL) halte ich für ausgeschlossen.
Genau das wird passieren: G300 für Desktop, GT300 (Tesla) für HPC. Das war beim G200/GT200 auch so geplant, wieso es nicht so kam, kann Konkort vielleicht sagen. Leider weiß Charlie offenbar noch nichts von G300/GT300, weshalb er ständig vom Release und Tape out des GT300/Tesla Chips schreibt und denkt, es wären die Desktop-Karten... ich vermute, dass Nvidia das Inqirer-Leck gefunden hat und ihn nun absichtlich auflaufen lässt. Anders kann man sich seine Falschmeldungen nicht mehr erklären.
 
Ich habe gerade in einer Digitimes-Meldung, in der es in erster Linie darum geht, dass Nvidia sein 40 nm-Volumen für dieses Jahr kräftig hochschrauben wird, folgendes gelesen:

"Nvidia has recently completed the tape-out of its next-generation (GT300) GPU on TSMC's 40nm process, indicated the sources."

Quelle: Digitimes

Theoretisch bestünde zwar die Möglichkeit, dass sie von BSON oder Hardware-Infos ohne Quellenangabe abgeschrieben haben, vielleicht haben sie aber auch eine eigene Quelle, die ihnen den Tape-Out des GT300 bestätigt hat - ja, hier ist wieder von GT300 und nicht G300 die Rede. ^^
 
Im 3dcenter gibts eine Kalkulation zur Leistung:
G80 vs GT200 vs. "G300"=

ALU-Leistung:
518 vs. 933 vs. 2458
G80->GT200 = 1.8x GT200->"G300" = 2.63x

Textur-Leistung:
36800 vs. 48000 vs. 89600
G80->GT200 = 1.3x GT200->"G300" = 1.86x

DP-Leistung:
GT200 = 78 GFLOPs DP
"G300" = 2.46 TFLOPs SP / 4 = 614 GFLOPs DP
614 / 78 = Faktor 7.8x
Sammlung der bisherigen Geruechte
495mm2@40nm
~2.4 Mrd. Transistoren
512 SPs (MADD+MUL/SP?)@1600MHz = 2.458 TFLOPs/s
128 TMUs (?) * 700MHz = 89.6 GTexels/s
1100MHz GDDR5@512bit = 281.6 GB/s
Stromverbrauch bis zu ~15% weniger als 285
Bisher lag Ailuros (außer bei den Prognosen zum GT200b) meistens recht gut...
 
ich hab z.zt. noch ne 7950 gt drin^^ und jetzt demnächst kommen so viele mega geeile spiele raus die ich eig schon gerne zocken würde...was meint ihr... soll ich mir jetzt demnächst noch die gtx275 holen oder lieber auf die gtx 3xx warten?
 
Naja, ich würde schon bis zur GT300 warten. Wobei eine GTX275 unter 200 EUR auch kein Geld ist... ich hab auf meiner GTX260 Crysis ohne AA in 1920 Mster Config Quality mit 25 FPS AVG gespielt. Mit einer GTX275 oder 285 bist du da gut dabei.

Wenn du nicht warten willst aber viel Leistung evtl Radeon 5870. Wobei die sicher im Preis sinkt wenn Nvidia im Okt/Nov ankündigt.
 
Zurück
Oben