News Nvidia GF100 „Fermi“ gesichtet und mehr

Status
Für weitere Antworten geschlossen.
Motkachler schrieb:
Hier steht was angeblich in der NV NDA steht. Danach dürften die auf der CEBIT nicht viel zeigen oder sagen.
Nvidia Rules & Regulations
http://www.semiaccurate.com/2010/03/02/nvidia-threatens-its-partners-cebit/

Und? Das ist der Sinn einer NDA (engl. non-disclosure agreement = Geheimhaltungsvertrag). Semiaccurate übertreibt in diesem Artikel maßlos. Im Gegensatz zu ATI, deren NDAs quasi nie eingehalten werden und Monate vorher schon Benchmarks und Features geleaked werden, kann man sehen, dass wenigstens Nvidias Quellen dicht gehalten werden. Solche Verträge sind Standard, ob man es glaubt oder nicht.

Wer dennoch gegen die NDA verstößt, muss wegen Vertragsbruchs mächtig Kohle blechen. So ist das - und so ist es eigentlich gewollt. Die NDA dient auch zur Verhinderung von Wirtschaftsspionage. Welcher Hersteller will denn schon seine Firmengeheimnisse von Partnern offen ausgeplaudert haben?

Das alle Welt heißt auf den Fermi ist, spielt in diesem Zusammenhang keine Rolle. Gerade aus diesem Grund hält man ja die Schotten seitens Nvidia dicht. Wenn laut deren Marketing alles gut geht, können sie z.B. am 26.03.2010 den Damm öffnen und eine Flutwelle erzeugen. Im schlimmsten Fall wird es halt nur ein kleiner Bach, aber hey - das ist Marketing und Business as usual.
 
IchmagToast schrieb:
... Ich habe mal irgendwo gelesen, dass die 480er 500-600€ kosten wird. Das ist echt krank. ...

ist doch nichts neues bei Nvidia ;)
du warst wohl noch klein als die geforce 2 Ultra rauskam? :p
da hat man damals auch weit jenseits der 1000DM Grenze geblutet (auch gerne mal 1400
DM) :freak:
 
Zuletzt bearbeitet:
:rolleyes: Es lebe der Nvidialismus.

Was werden die "ATI boys" jetzt finden? Dass eine Karte bei annäherend gleicher Leistung evtl. etwas weniger Strom zieht ist bei einer Nachentwicklungszeit von mehr als einem halben Jahr und einer qualitativen Chipausbeute jenseits von Gut und Böse für mich keine Innovationsbombe. :freak:

Darüber hinaus hoffe ich für die "Failvidia Boys", dass der angebliche Leistungsvorsprung zur 58xx-Reihe von ATI möglichst deutlich ausfällt. Ansonsten kommt ATI Ende des Jahre mit der 6xxx-Reihe und haut die Konkurrenz erneut vom Podest, woraufhin nVidia nach den ganzen Querelen bei der Konzeptionierung und vor allem technischen Umsetzung des aktuellen Fermis gleich weiter das Lernen aus ihren Fehlern vermeiden darf. Und generell gilt: Wenn die grünen Jungs dann irgendwann mal wieder was tolles raushauen kostet es auch gleich 10% mehr als die rote Konkurrenz.

Um mein Niveau noch weiter zu senken: Enjoy your Hoffnung.
 
Zuletzt bearbeitet:
Also wenn du dich auskennen würdest,wüsstest du,dass 600Watt für LC-power und der gleichen gedacht sind,dein Beitrag einfach nur FAIL.
 
Und dann noch 42 A minimum auf der 12 Volt line da dürfen sich die NV Fanboys dann gleich noch ein teures Netzteil dazukaufen echt lustig.
Das hat nämlich ein LC.power und dergleichen niemals.:D
 
Zuletzt bearbeitet:
Hardware_Hoshi schrieb:
Und? Das ist der Sinn einer NDA (engl. non-disclosure agreement = Geheimhaltungsvertrag). Semiaccurate übertreibt in diesem Artikel maßlos. Im Gegensatz zu ATI, deren NDAs quasi nie eingehalten werden und Monate vorher schon Benchmarks und Features geleaked werden, kann man sehen, dass wenigstens Nvidias Quellen dicht gehalten werden. Solche Verträge sind Standard, ob man es glaubt oder nicht.

Wer dennoch gegen die NDA verstößt, muss wegen Vertragsbruchs mächtig Kohle blechen. So ist das - und so ist es eigentlich gewollt. Die NDA dient auch zur Verhinderung von Wirtschaftsspionage. Welcher Hersteller will denn schon seine Firmengeheimnisse von Partnern offen ausgeplaudert haben?

Wenigstens einer hat es begriffen! Genau so sieht es aus, und das hab ich ja vor zwei Tagen im anderen Thread schon geschrieben, dass Nvidia den Partner ein NDA auflegt. Und ist doch gut so. Davon profitieren vor allem ja auch wir als hier arbeitende Leute. Kein Durchgesicker nix, perfekt für uns. Aber auch perfekt für die Partner, gleiche Bedingungen für alle. AMD will in Zukunft übrigens auch härter werden, nachdem es 2009 viel zu weich war. Und das hat zuletzt auch schon Wirkung gezeigt.
 
@ Waddee

Meinen Beitrag wegen eines Bildes und dessen Kommentierung als FAIL zu bezeichnen, nur weil ich nicht den ganzen Tag in Nvidia-Diskussion-Thread abhänge finde ich ein wenig unfair. Is ja schön dass das angeblich "maßlos" übertrieben ist. Vermutlich auch die Leistung der Graka. :lol: Wäre eigentlich optimal für die grünen Jungs wenn sie anfangen würden, Netzteile jenseits der 1.000 Watt herzustellen um auf ihre zukünftigen Grakas vorsichtshalber ganz fett "1.500 W power supply minimum" draufzukleben. Ja ich weiß dass ich unsachgemäß argumentiere. :D
 
Zuletzt bearbeitet:
@Qbix und all die anderen mit ihren überaus "einfallsreichen" geistigen Ergüssen:

die Anforderungen bez. des NT sehen bei AMD/ATI (siehe 5830^^ 5830 System Requirements) ähnlich aus und sagen nichts über den tatsächlichen Verbrauch aus. Oder warum betreibst auch du ein 600 Watt NT Mr. Qbix?

Also bitte haltet einfach bis zur offiziellen Ankündigung den Ball flach. Das kann sich ja langsam keiner mehr durchlesen was einige hier für Grütze von sich geben.
 
Da ich mein Netzteil bereits ein knappes Jahr vor der HD5870 erworben habe und damals noch eine Nvidia 7950 GT hatte fühle ich mich von deiner Anspielung in keinster Weise kompromittiert.
 
@Qbix: damit unterstützt du ja walker2s aussage nur noch mehr, denn die 7950gt brauch ja nochmal deutlich weniger strom als die 5870.

er wollte aber wohl vor allem auf den link aus seinem post hinweisen, nach dem eine 5830 50watt weniger und eine 5970 50 watt mehr brauchen würde als eine gtx480.
sprich: die angaben sind vollkommen willkürlich und ohne realitätsbezug.
 
Also wenn es stimmen sollte dass das Minimum für diese neue nVidiaGrafikkartengeneration bei 600Watt und auf der +12VoltSchiene bei 42A liegt, dann ist jene Generation für mich erst einmal völlig uninteressant. Selbst wenn bestimmte Spiele dadurch in 1680x1050 bzw. 1920x1200 etliche FPS fixer über den Schirm flitzen.
Irgendwie ist es doch sinnbefreit - auf der einen Seite werden Mainboards (Treiberbausteine), CPUs immer kleiner und auch Stromeffizenter hergestellt und im Grafikkartensektor geht wieder der umgekehrte Weg.

Und mit Verlaub - die meisten Spiele sehe dadurch auch nicht besser aus - denn "echten" Realismus würde die meisten Spieler abschrecken und somit verpufft viel Leistung im Desktop, Office und was noch für Bereiche...

Irgendwie verstehe ich das alles nicht mehr :).
 
chaosPit:
Wie schon die vorredner angemerkt haben, ist die angabe so, dass auch jedes China-Netzteil (steht 600W drauf, liefert aber 400W ohne dass es abraucht) das verkraften kann.........
Ist das wirklich so schwer zu verstehen?
 
Ich denke dass Nvidia die Karten mit großem Tamtam vorstellt, nur ein paar hundert ausliefert zu Preisen die niemand bezahlen kann/will und nur von Redaktionen getestet, die sich an das Testschema halten und keine Negativreviews veröffentlichen. Daraufhin bringt Ati eine höher getaktete Version und senkt die Preise. Dort kann NVIDIA nicht mithalten ohne je Karte mehrere hundert € Verlust zu schreiben, sie stellen Fermi im Consumerbereich ein, bzw. verkaufen nur eine stark abgespeckte Version. Es wird kurzfristig ein in 40 nm gefertigter G92 vorgestellt, der dann GTX470 heißt. Die GTX480 wandert in den Profi Bereich für ab 3000 € aufwärts. Offiziell schieben sie die Schuld auf TSMC und erzählen wieder Neuigkeiten vom ach so brillianten Nachfolger(mit ähnlicher Leistung, nur kleiner und mit mehr Takt) der dann mit im Spätherbst papergelauncht wird. Den kann man dann ab Dezember in Stückzahlen kaufen, während ATI die neueste 28 nm Karte aus Dresdner Produktion vorstellt, die rund 40 % leistungsfähiger ist.
 
@ Sirius5

Du glaubst doch nicht wirklich, dass nVidia dieses Spielchen nur spielt, weil sie Angst haben, ATI könnte was abkupfern und verwenden, BEVOR Fermi rauskommt??

Das würde voraussetzen, dass sie binnen 2-3 Monaten aufgrund von, sangwerma, einer zufällig aquirierten Karte einen Technikvorsprung erkennen, die Technologie dahinter auswerten, ihrerseits nutzen und in einem Produkt einsetzen könnten. :lol:

Völlig unmöglich.
 
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

Zurück
Oben