News Nvidia: 55-nm-Chip bereitet offenbar Probleme

Kasmopaya schrieb:
Das sind ja nur die theoretischen TDP angaben der Hersteller oder?;) Versuche mal Furmark also 100% GPU Auslastung auf einer 4870 X2 laufen zu lassen. Soweit ich weis schafft die X2 Karte nicht mal eine GPU auf 100% stabil und stürzt ab. Für 2 Kerne gibt es keine CF Unterstützung und wenn es CF Support geben würde dann währe wieder im Treiber die Leistung manuell gedrosselt.


Und vorallem bei 100% Auslastung sind die NV Karten bei weitem effizienter als die Konkurrenz.

MfG Kasmo

echt,wo sind die GTX 260 karten effizienter? und wozu braucht man furmark? zeig mir eine andere anwendung wo eine 4870X2 heiß laufen könnte? nur logisch dass man bei Furmark via treiber drosselt. es gibt ja auch kein spiel, und wird wahrscheinlcih au nie eins geben was auf 800SU´s berechnet wird.


-Cryptic- schrieb:
So what... wozu braucht man momentan NOCH bessere Karten?
Ich kann jedes Game in max. Auflösung, mit max. AA, max. Details und Filter zocken.
Bin mehr als zufrieden. Wozu also NOCH schnellere Karten?

Is (momentan) nicht nötig. ;)

haha. nicht jeder gibt für eine grafiklösung 1200euro aus. zudem gings hier glaube ich um "einzelne" karten.

außerdem, selbst für dich dürfte Crysis mit 8xAA, 16xAF in 2560x1920 ein problem darstellen. von SSAA usw wollen wir erst gar nicht reden.


gruß
 
Zuletzt bearbeitet:
IgG schrieb:
Der Inquirer schreibt (hoffentlich) wieder Müll. Unvergesslich die Artikel zur 8800 GTX (Rohrkrepierer, man soll auf den R600 warten) und Nvidia Chipsätzen (Nvidia steigt aus dem Chipsatzmarkt aus).

Das mit den Chipsätzen kam von "Digitimes", was eigentlich eine glaubwürdige Quelle ist, und dass das komplett ausgedacht war, glaubt doch kein Mensch, es wird schon darauf hinauslaufen, dass Nvidia noch das bringt, was die in der pipeline haben, danach ist Sense. Jetzt mal ehrlich, wer braucht/will/kauft Nvidias Chipsätze jetzt noch?

Nvidia is losing chipset share to AMD

Was das zweite angeht, hast du da mal einen Link? Kann mich an sowas ehrlich gesagt nicht erinnern.
 
Zuletzt bearbeitet:
echt,wo sind die GTX 260 karten effizienter?
Folding @ Home zb. oder allgemein GPGPU Anwendungen.
https://www.computerbase.de/forum/threads/programme-die-mit-der-gpu-rechnen.426771/

und wozu braucht man furmark?
Zur Bestimmung des Netzteils unter 100% Lastverbrauch der Grafikkarte
Zur Bestimmung der maximalen Temperatur der GPU
Zur Bestimmung der Stabilität mit den eingestellten Taktraten.
Teilweise auch Lautstärke wenn man unter 100% GPU Last arbeitet, will man ja auch wissen wie laut dann der Lüfter ist.

zeig mir eine andere anwendung wo eine 4870X2 heiß laufen könnte?
https://www.computerbase.de/forum/threads/programme-die-mit-der-gpu-rechnen.426771/
Hier such dir eine 100% GPU Last Anwendung aus: Voraussetzung ist eine Anwendung die per CTM beschleunigt wird.

nur logisch dass man bei Furmark via treiber drosselt. es gibt ja auch kein spiel, und wird wahrscheinlich au nie eins geben was auf 800SU´s berechnet wird.
Wer redet denn hier von einem Spiel? Furmark ist ein Programm zur Prüfung von Stabilität, Lastverbrauch und der Temperaturen bei 100% GPU Last. Wenn ATI die auf der Verpackung versprochenen GFlops nicht halten kann, dann sollen sie das auch auf die Verpackung schreiben und nicht einfach per Treiber still und heimlich wegpatchen.
 
Zuletzt bearbeitet:
Bylar schrieb:
Das mit den Chipsätzen kam von "Digitimes", was eigentlich eine glaubwürdige Quelle ist, und dass das komplett ausgedacht war, glaubt doch kein Mensch, es wird schon darauf hinauslaufen, dass Nvidia noch das bringt, was die in der pipeline haben, danach ist Sense. Jetzt mal ehrlich, wer braucht/will/kauft Nvidias Chipsätze jetzt noch?

Was das zweite angeht, hast du da mal einen Link? Kann mich an sowas ehrlich gesagt nicht erinnern.

Inq zur 8800 GTX (da gibts noch mehr, lohnt sich auf deren Seite rumzusuchen)
G80 is not going to be a converged shader unit like the ATI R500/XBox360 or R600, it will do things the 'old' way.
...
In any case, NV is heavily downplaying the DX10 performance, instead shouting about DX9 to anyone who will listen. If the G80 is more or less two 7900s like we hear, it should do pretty well at DX9, but how it stacks up to R600 in DX9 is not known. R600 should annihilate it in DX10 benches though. We hear G80 has about 1/3 of it's die dedicated to DX10 functionality.

Inq zu Chipsätzen (lustig, dass die jetzt in MacBooks sind...)
So in the end, Nvidia chipsets are history. You will see a few more trickle out mainly because they are already done and dusted. Mobo makers are taking the attitude of "don't let the door hit your ass on the way out", while laughing of f future marketing initiatives. Game over
 
Zuletzt bearbeitet:
@Bylar: Wer die Meldung zuerst hatte ist nicht ausschlaggend, Inq bringt sie genauso und darum ging es mir: Die Glaubwürdigkeit des Inqs.

Außerdem scheinen die sich nicht gerade auf digitimes zu beziehen, mal ein paar Zitate aus dem oben verlinkten Artikel:
The INQUIRER has talked to people who were at the meeting, and they confirmed the reports, and are dead convnced that Nvidia chipsets are a thing of the past.
...
The next master plan is to try and artificially make up a 'reason' to lock out those who don't tithe from SLI 'technology'. Large mobo makers openly laughed at this plan when asked by The INQUIRER about the possibility of paying.
Inq begründet den Artikel mehrmals mit eigenen Quellen.

Und selbst wenn der Artikel kopiert wäre (was er nicht ist, ist eine Eigendichtung des Inq) wäre es trotzdem eine vom Inq veröffentlichte Falschmeldung.

Back to topic...
 
@IgG
Natürlich ist es ausschlaggebend wer es als erster geschrieben hat, Inq sammelt auch News von anderen Quellen und bringt sie dann, teilweise erweitert, nochmal.

Erinnert mich an die sogenannte "Falschmeldung" von Fudzilla, dass Nvidia Ageia gekauft haben soll, es wurde abgestritten, über Fud gelacht und einige Wochen später hat es sich als Wahrheit herausgestellt, woher willst du wissen, dass sich das mit den Chipsätzen nach einigen Monaten nicht genauso als wahr herausstellt? Inq bekommt öfters Infos direkt von der Quelle, meistens liegen sie mit sowas schon richtig.
 
Betrachtet die Situation doch mal logisch. Intel Plattform ist für NV Dicht. Die paar & Marktanteil bringen NV nicht die nötigen Margen. Zumal Intel an einem Fusions Konkurrent arbeitet und damit Nv eh überflüssig wird. Und bei AMD brauch nur jeder selber die AM2+ Listen der Boards durchgehen und auch die letzten Meldungen dazu, siehe auch VIA dazu, lesen. Auch hier kann NV bald nicht mehr Punkten. AMD hat die selbe Leistung 3 oder 5% schneller dafür mehr Energieaufnahme, das wird das Blatt nicht mehr wenden, zumal AMD mehr und mehr vorlegt. Wo soll da der NV Chipsatz noch seinen Markt finden? Und im Netbook markt, dem Boom markt überhaupt kann NV zwar Achtungserfolge feiern aber das mit VIA ist ja wohl gescheitert und bei Intel kommt es nicht rauf. Schon mal gar nicht mit Gewinn und in Stückzahlen die was her machen. Zumal der kommende Chipsatz für 2009 oder 2010 für die Tonne ist. Atom und Fusion werden das dann überflüssig machen, praktisch wird das frei haus von AMD und Intel und auch VIA mitgeliefert mit der CPU. Selbst die Board Hersteller werden Probleme bekommen. Asus gat da was aufgerissen was die Welt völlig verändern wird. MSI und Acer ziehen mit. Weg von Boards, hin zu ganzen Netbooks.

Wo soll da NV bleiben?
Die Investitionen in neue Chipsätze für Desktops rechen sich für NV nicht mehr. Zumal der Hönig nicht mehr fließt. Wo also Kosten einsparen bei NV? Genau, Meldung raus, Konzentration auf das Kerngeschäft. Sprich Grafikkarten. Alleine da hat Nvidia enorme Problem überhaupt dran zu bleiben. Und dann will intel auch noch hier mitmischen. AMD kann durch die eigene CPu, durch die eigene Plattform gegen halten. Hybrid Crossfire & Co.
Und NV?

Warum will NV nicht endlich Risiko zeigen und VIA um jeden Preis kaufen. VIA selber wäre wohl nicht ganz abgeneigt. Aber es wäre sehr sehr teuer. Was ist jedoch die Alternative?
Der Markt im Desktop Bereich wird für NV ganz sicher kleiner, damit der Umsatz und der Gewinn, der jetzt schon schrumpft bis aus bleibt. Nicht weil AMd alles weg putzt, das wäre Spekulation, aber weil Intel mit ein steigt. Intel wird doch nicht nur AMD Anteile am Markt abnehmen. Chipsatz ist eh bald in der CPU. CPU hat NV nicht. GPU wird es so schnell nicht zur CPU mutieren. Dazu hat AMD nun wieder Luft und einen eigenen Potenten Hersteller seiner Chips. IBM als Partner und alle Bausteine für die Zukunft.

Also sollte hier ein Manager von NV mitlesen... kauft VIA oder macht den Laden dicht.
 
Gerade bei den Netbooks wo die extrem schwachen Atom CPUs verbaut werden, ist eine starker Chipsatz mit Videobeschleunigung durch onboard GPU(NV) wichtig. Wenn die kleine onboard GPU dann auch noch bei anderen Aufgaben die Atom CPU entlasten kann ist das gleich noch ein Grund mehr für einen ordentlichen Chipsatz der auch nicht mehr verbraucht als Intel Chipsätze

GPU wird es so schnell nicht zur CPU mutieren.
Und was denkst du baut Intel gerade mit dem Larabee x86? 2009 - 2010 soll es soweit sein. Bin ja gespannt wer mehr Know-How und Treibererfahrung hat beim umwandeln einer GPU in eine vollwertige CPU. Würde mein Pferd nicht auf Intel setzten...
 
Zuletzt bearbeitet:
ich weiß nicht, ob das hier schon geschrieben wurde, aber warum muss NV denn unbedingt auf 55nm schrinken? Sollen sich doch lieber die Zeit, Nerven und natürlich das Geld sparen und die Konzentration direkt auf 40nm lenken? Wäre doch sinnvoller, oder? Sehs dann schon wieder kommen, das NV Probleme mit 40nm bekommt, weil se zuviel Zeit mit den 55nm verschwendet haben.
 
Der 55nm-Prozess ist jetzt (ausgereift) verfügbar. Neben nVidia's Phobie vor neuen Fertigungsprozessen wäre es also eine Möglichkeit, den GT200 wirtschaftlicher zu machen. Nur dazu muss man schon erfolgreich shrinken. Eine Verschiebung ins nächste Jahr wäre zumindest ein kleinerer GAU. Man ließe so ATi mehr Luft mit der HD4k-Serie und läuft Gefahr, später mit dem Shrink schon auf die HD5k-Generation zu treffen. Der entsprechende 40nm-Prozess dürfte im Laufe des nächsten Jahres die Massenproduktion erreichen.

Eine schlechtere Ausbeute ist bei einem so großen Chipdesign immer zu erwarten. Vielleicht sehen wir zumindest die 270er noch zu Weihnachten in Stückzahlen...
 
@ Matti: Dass man zunächst auf 55nm setzt, ist natürlich suboptimal. Aber nVidia möchte so bald wie möglich in dieser Hinsicht konkurrenzfähig werden. Der GT-200 macht jetzt Probleme, und die möchte man so bald wie möglich gelöst haben.
LeChris schrieb:
ein kleinerer GAU
Irgendwie paradox, oder? :evillol:
 
Schinzie schrieb:
wie sich das blatt wenden kann, wahnsinn.

Das Blatt wendet sich nicht nur, das Blatt bekommt am laufenden Meter neue Tiefschläge ab:


Rambus will Einfuhr von Nvidia-Produkten in die USA verbieten lassen


Offenbar verlaufen die Verhandlungen zwischen Rambus und Nvidia über die Lizenzgebühren für Rambus-Patente bisher schlecht: Bei der US-Handelsbehörde International Trade Commission (USITC) hat Rambus nun eine Beschwerde gegen Nvidia eingelegt und verlangt, dass die USITC einen Einfuhrstopp für Produkte mit Nvidia-Bauelementen verfügt, die Speichercontroller für SDRAM-Speichertypen wie DDR, DDR2, DDR3, LPDDR, GDDR, GDDR2 und GDDR3 enthalten. Davon betroffen sind wohl die meisten Grafikchips, Mainboard- und Notebookchipsätze von Nvidia, etwa auch die in den jüngsten Apple-Notebooks, sowie Produkte der von Rambus explizit genannten Firmen Asus, BFG, Biostar, Diablotek, EVGA, Gigabyte, HP, MSI, Palit, Pine und Sparkle.
Anzeige

Die Rambus-Anwälte steigern mit dieser Maßnahme den Druck auf Nvidia, nachdem die im Juli eingereichte Klage offenbar zu wenig Wirkung zeigte. Nach eigenen Angaben verhandelt Rambus bereits seit sechs Jahren mit Nvidia über Lizenzzahlungen. In den meisten Fällen hat sich Rambus bisher mit seinen Gegnern auf die Zahlung von Lizenzgebühren geeinigt. Stur geblieben sind bisher aber die Firmen Hynix, Micron, Nanya und Samsung.

In den vergangenen Monaten haben sich aber einige der Verfahren eher vorteilhaft für Rambus entwickelt; so hatte die US-Wettbewerbsbehörde FTC etwa eine frühere Begrenzung der anteiligen Höhe der Lizenzgebühren, die Rambus fordern darf, wieder aufheben müssen. Zudem sind die Vorwürfe wegen Betruges vom Tisch und eine zwischenzeitlich ruhende Klage gegen Hynix darf Rambus nun weiterführen.
 
also ich find es garnicht so schlecht dass es mal ein Päuschen gibt... steh ich nicht so unter Druck mir wieder was neues zu kaufen :D
 
lol, wer sagt denn, dass du dir ständig was neues kaufen musst? ;o) Vor Juli 09 kommt mir sicherlich keine neue Graka ins Haus.
 
Wollte eigentlich auch warten. Gut das ich vor kurzem zugeschlagen habe und eine GTX 260² noch für 240€ ergattern konnte. Auschlaggebend für mich waren die neuen Spiele welche bei hohen Auflösungen meiner 8800 doch einiges abverlangten. Nun läuft alles sauber :)
 
Zurück
Oben