News Nvidia beendet drittes Quartal mit Rekordumsatz

Kamikaze_Raid schrieb:
Das neue Fertigungen angewand werden weisst du aber? Oder denkst du das in 10 Jahren NV noch immer >400mm² große GPUs fertigt? (mit dann 300 Millarden Transistoren)

Ja allerdings, solange keine technischen Hürden dagegen sprechen wird das wohl so sein.
 
Das glaube ich eher nicht, denn der Kostenfaktor wird immer größer und sind diese Riesenchips einfach ineffektiv. Der einzige Grund der für große Chips spricht ist der, die entstehende Wärme besser abzuführen.
 
Abwarten, solange es Kunden gibt die den Preis bezahlen wird Nvidia auch weiter große Chips entwickeln. Im Moment wird halt der Mainstreamkunde gemolken und die Highendchips zum (un)passenden Preis an die Profikundschaft verkauft.
 
@NV
Meinen Glückwunsch!

Image und Kundensupport sind die halbe Miete, Preisstabilität und gute Produkte machen den Rest...
Ob die Preise gerechtfertigt sind sei mal dahingestellt, Tatsache ist dass sie gute Arbeit abliefern, warum soll man es ihnen also nicht gönnen? So lange es jedes Jahr bessere GPUs gibt und sie weiter Innovationen wie CUDA, 3D-Vision und PhysX bringen kann man sich nicht beschweren^^ Wenn man bedenkt, dass man vor Jahren noch von sowas geträumt hat, sind die Preise doch mehr als akzeptabel... Das ist HighTech und keine Barbie-Puppe :D

Bleibt zu hoffen dass AMD auch zu alter Stärke zurückfindet und wieder ordentlich mitmischt, sonst siehts doch sehr düster aus für den Kunden... Man stelle sich vor, es gebe nur noch Intel-Prozessoren, das wäre der Grundstein eines sehr realen Umbrella -.-
 
Zuletzt bearbeitet:
@met
In der EU, wenn es denn stimmt, wirst du solche Monster nicht mehr kaufen können. Die wollen angeblich ein riegel bezüglich Leistungsaufnahme vorschieben... dann sind solche Monster passé.

r00t~
Welche Innovationen? Cuda, 3D-Vision und PhysX kann AMD auch, nur hat es da einen anderen Namen. In meinen Augen, und dies sage ich als langsjähriger NV User, ist die aktuelle Generation von NV eine reine Verarsche am Kunden!
 
smalM schrieb:
Im Sinne von funktionsfähig? Nein.
Im Sinne von massenproduktionsfähig? Ganz sicher ja :D

ist natürlich unsinn, wer mal so eben 18.xxx? chips in ein paar wochen aus den ärmel schüttelt, ist definitiv massenproduktionsfähig.
Ergänzung ()

Whoozy schrieb:
So großkotzig Nvidia manchmal agiert, so ignorant ist manchmal deren Fanbase.

ignorant scheint mir momentan eher hier die amd-fanbase, die hier ernsthaft erzählt, das amd seit jahren nvidia performancemässig schlagen würde. obwohl, mit ignoranz hat das nichts zu tun, sondern eher mit einen völlig verschobenen realitätssinn ;).
 
@Kamikaze_Raid
Danke fürs aufmerksam machen :)
Hätte nicht gedacht das es solche Bemührungen gibt, bzw. diese schon derart weit voran geschritten sind, das zukünftige High End Grafikkarten nicht mehr verkauft werden dürfen.

Leider fand ich nur dies dazu

http://www.gamestar.de/hardware/news/grafikkarten/3005840/grafikkarten.html

Aber was ich mich frage, warum die EU die Bandbreite der Grafikkarten beschneiden will?
Was solls eine reduzierte oder limitierte Bandbreite denn an Energie sparen?
Im Grunde liegt die Lösung auf der Hand, die Chips benötigen weniger Energie, doch das ist auch durch eine optimierte Architektur möglich, genauso durch verbesserte Fertigungsverfahren.

Die Chips sollten auf Energieeffizienz getrimmt werden, da sehe ich den Sinn, aber nicht in der Beschneidung der Bandbreite, als Laie denke ich mir, das es dadurch Probleme in der Zukunft geben wird, bezüglich grafisch aufwendiger Anwendungen.

@Topic

Ich gehöre ebenfalls zu den ignoranten und dummen Usern, welche dennoch zu Nvidia greifen, auch wenn AMD teils einen besseren Job macht :)
Eine 9700Pro war meine letzte ATI, danach werkelte nur NV in meinem System, was sich für die Zukunft wohl nicht ändern wird, da ich mit NV einfach total zufrieden bin, was nicht automatisch bedeutet, das ich deren Methoden bzw. Geschäftspraktiken gut heiße.
Ein Fan bin ich von NV, aber kein Fanboy der gegen AMD am rumhaten ist, leben und leben lassen sage ich mir, genauso Intel/AMD, mir ist dieses Theater zu affig, soll jeder kaufen was er mag, ich habe meine Gründe warum gewisse Hersteller meine Favos sind.
 
Zuletzt bearbeitet:
acc schrieb:
ignorant scheint mir momentan eher hier die amd-fanbase, die hier ernsthaft erzählt, das amd seit jahren nvidia performancemässig schlagen würde. obwohl, mit ignoranz hat das nichts zu tun, sondern eher mit einen völlig verschobenen realitätssinn ;).
Hmm... also die gesamte HD7000er Reihe schlägt die GTX6XX nicht nur im Preis, sondern auch im Performance. Und mit Catalyst 12.11 Beta 6 sogar deutlich.
 
@Kamikaze_Raid

PhysX sei mal außemvor, in Project Cars scheint es Verwendung zu finden aber genutzt wird es doch viel zu selten.
Zu CUDA und 3D-Vision: AMD unterstütz OpenCL, was in etwa CUDA entspricht, auch schlägt AMD NV in Sachen OpenCL. Jedoch steht man als Developer mit CUDA nach dem was ich gelesen habe (also zum großen Teil Spekulation) sehr viel sicherer dar. Bsp. Nvidia Parallel Nsight für Visual Studio und CUDA Profiler etc. Wüsste von nichts vergleichbarem seitens AMD. Das Thema 3D hat AMD auf 3rd Party abgeschoben, was für einen 0815-Nutzer einen extremen Aufwand bedeutet, um am Ende immer noch schlechter gestellt zu sein als Nutzer von 3D-V, welche treiberseitigen Support direkt erhalten, teils optimierte Spiele und zertifizierte Monitore etc. Ob der größere Aufwand die Preisersparnis rechtfertigt muss man dann selber entscheiden. Mmn hat AMD da verschlafen und tut es immer noch. Das Ramsch-Image ist da auch nicht gerade hilfreich, geht ja offensichtlich immer noch billiger :rolleyes:

Mir ist nicht klar, wieso du die 600er als "Verarsche am Kunden" siehsts, mehr Leistung als Fermi bei weniger Verbrauch und selbem Launch-Preis... Dass NV beim Kunden ordentlich abzuschöpfen versucht, ist bei solchen Preisdifferenzen offen ersichtlich. Aber irgendwie ist es doch so besser, als wenn es ihnen wie AMD ergeht... Mir gefällt es nicht, dass NV die Margen weiter steigern konnte, und noch weniger würde es mir gefallen, wenn AMD den Bach runterginge und NV alleine dastünde. Aber trotzdem freue ich mich, dass in der IT Unternehmen exisitieren, die in Krisenzeiten Fortschritt ereichen ohne bankrott zu gehen und dabei halbwegs kundennah agieren im Gegensatz zu bspw Apple & Co. Beispiel GeForce Forum...

PS:Meine Sig ist bei dieser Diskussion leider nicht sehr hilfreich -.-
 
Zuletzt bearbeitet:
@Kamikaze_Raid

Oh bitte, ...
Ja, die 600er Gen. ist teuer, aber die Produktionskosten sind auch stark gestiegen (50-60% ggü 40nm), dazu kommt ein schwacher Euro.

AMD ist natürlich relativ billig, aber das zeigt sich dann auch an ihren Quartalszahlen.
Da bleibt nichts hängen, lächerliche 80 Mio. USD zuletzt wenn ich mich recht erinnere (GPU allein).

Nvidia lebt sicher auch vom Image, aber auch ohne das, würden sie AMD Preispolitik nicht mit gehen, denn sie müssen davon leben, was sie verkaufen, ansonst krebsen sie auch mal wie AMD bei 1,50€ pro Aktie rum, statt 10€ wie aktuell.
AMD kauft keiner auf, NV dagegen hat viel Wertvolles für deutlich größere Fische, wie Apple, Intel, Qualcomm ect. zubieten.
Das macht Jensen schon richtig, dass er die Ramschpreise von AMD nicht mit geht.
 
Zuletzt bearbeitet:
Amok-Sepp schrieb:
AMD kauft keiner auf, NV dagegen hat viel Wertvolles für deutlich größere Fische, wie Apple, Intel, Qualcomm ect. zubieten.

Ein Interessanter Artikel dazu,der besagt falls Nvidia mal zum Verkauf stehen würde,wäre ob man es glaubt oder nicht Microsoft an erster Stelle.

Klick
 
Hmm... also die gesamte HD7000er Reihe schlägt die GTX6XX nicht nur im Preis, sondern auch im Performance. Und mit Catalyst 12.11 Beta 6 sogar deutlich.
dlux ist offline Beitrag melden Antwort

Ja ne is klar...

Btw. ich bin froh das es noch einen Herrsteller von GPUs gibt der nicht nur verbuggte Treiber hinbekommt. Und AMD naja belebt das Geschäft..
 
dlux schrieb:
Hmm... also die gesamte HD7000er Reihe schlägt die GTX6XX nicht nur im Preis, sondern auch im Performance. Und mit Catalyst 12.11 Beta 6 sogar deutlich.

jo mit neuen treibern, vor 3 monaten sah das noch anders aus. ausserdem schrieb ich von jahren, nicht von jetzt.
 
BomberDeluxe schrieb:
Das ist doch Quatsch. Wenn ich mehr Leistung hätte, dadurch, dass das Bild so gering verschlechtert wird, dass es mir selber nicht auffällt, wo liegt dann das Problem? ;)

Das Problem dabei ist das wenn NVIDIA auch auf diesen Zug aufspringen würde man nur noch schlechte Grafik kauft statt Neu Entwicklungen, glaub kaum das du das gut finden würdest.
 
Seehawk schrieb:
Das Problem dabei ist das wenn NVIDIA auch auf diesen Zug aufspringen würde man nur noch schlechte Grafik kauft statt Neu Entwicklungen, glaub kaum das du das gut finden würdest.
Häh? Wenn mann die Leistung erhöhen kann, in dem man die Bildqualität "verschlechert" und der Mensch diese Änderung auch nicht wahrnehmen kann, dann ist es auch keine Verschlechterung, sondern eine Optimierung und Anpassung auf den Menschen.

So funktionieren doch auch MP3s. Die Qualität ist tatsächlich messbar schlechter als bei PCM (CD-Audio), das macht aber nichts. Das was entfernt wurde kann der Mensch aus biologischen Gründen eh nicht hören.

Man kann die Bildqualität natürlich auch "verschlimmbessern", indem man die Bildqualität erhöht und dadurch auch die Leistung herabsenkt - obwohl ein Mensch diese Veränderung nicht wahrnehmen kann. :rolleyes:
 
Zuletzt bearbeitet:
Aza* schrieb:
Für mich mal wieder ein Beweis, dass in der heutigen Zeit beim Kauf von Elektronik i.w.S. auf Namen, Prestige und Gefühl mehr Wert gelegt wird, als auf die harten Fakten, welche ein Produkt ausmachen.

Somal ja auch das Oak Ridge Laboratory voll und ganz auf GPU Cores des grünen Konzerns setzt

Das sind keine Deppen oder Marketingkiddis die sich von Bling Bling Werbung,und aufgebauten Prestige blenden lassen

Hier zählen nur harte Fakten,Soft und Hardwareverträglichkeit,irgendwas müssen sie also richtig machen bei Nvidia,das dort nicht die "potente" 7xxx Fire Pro Karten werkeln

Da kann man auch gut und gerne mal auf diese Konsolendiscountausverkauf sch... den AMD sich da "eingehandelt" hat,wenn man solche Kaliber mit 20 000 GK110 Chips beliefert zu schätzungsweiße 5000Euro pro Teslasteckkarte,bekommen die nur ein kaltes Grinsen dabei;)

Ich würde auch nicht darauf wetten das Nvidias Produktpalette nun weiterhin so hinterher hinkt nachdem man den großen Brocken Titan nun endlich gestämmt hat,sollten genügend Resourcen für den ordinären Geforce frei werden
 
Zuletzt bearbeitet:
@scully1234
Deine Aussage ist völlig naiv. Bei den von dir besagten "Konsolendiscountausverkauf" wird wahrscheinlich mehr Geld generiert als im Prof. Bereich mit Teslakarten usw. Denk doch mal nach wie oft Konsolen verkauft werden und wir wie oft Supercomputer mit GPGPU Karten...
 
@Kamikaze_Raid

Bei den Konsolen kann man nur punkten, wenn man auch auf 5-10 Jahre Shrinks für das Eingangs-SoC anbieten kann.
NV hatte hier niemals eine Chance, egal wie gut ihre GPU ist. Genausowenig wie Intel, egal wie gut ihre CPUs sind.
 
Kamikaze_Raid schrieb:
@scully1234
Deine Aussage ist völlig naiv. Bei den von dir besagten "Konsolendiscountausverkauf" wird wahrscheinlich mehr Geld generiert als im Prof. Bereich mit Teslakarten usw. ...

Wer hat dir das denn erzählt? Etwa der Sony Konzern der mit der PS alleine nur rote Zahlen schreibt weil diese Dinger so wirtschaftlich sind wie Kuhkacke:evillol:

Da kannst du dir ausmalen was bei den Zulieferern hängen bleibt,ganz gleich ob PS oder Xbox:freak:

Bei dem was mit einer Tesla verdient wird,die ja bis zur Software äquivalent zum Geforce Produkt ist,muss Sony u MS schon einige Games an den Man bringen,denn da wird das Geld generiert,nicht durch die Konsole selbst bzw der in ihr verbauten Hardware.
 
Zuletzt bearbeitet:
Whoozy schrieb:
Sie hatte nur diesen Status, weil die Konkurrenz Mist abgeliefert hat zu dieser Zeit.
Selbst wenn man die Konkurrenz komplett ausklammert, fiel die 8800GTX aus der Reihe: ungefähr die doppelte Leistung wie der direkte Vorgänger bei hohen Auflösungen sowie deutlich mehr Leistung als alle damals aktuellen Doppel-GPU-Karten... das gab es weder vorher noch danach: https://www.computerbase.de/2006-11/test-nvidia-geforce-8800-gtx/28/

Normalerweise liegen die jährlichen Steigerungen ja eher bei 30 - 50%.
 
Zurück
Oben