News Nvidia kündigt Flaggschiff Quadro K6000 an

mit 1000mhz takt würde schon so 40/% plus zur 780er bringen, wenn sie als gforce für 900eu kommt, würd es mich evtl zucken...
Wäre vorstellbar wenn amd ein knaller bringt
 
Ich versteh ehrlich gesagt nicht ganz warum man nicht gleich raushaut was man zu bieten hat. Warum werden echte High End GPUs nur für den professionellen Bereich veröffentlicht. Sind denn CAD Animationen und Berechnungen so viel anspruchsvoller als moderne Spielegrafiken? Ein Crysis 3 mit Kantenglättung überfordert bereits jedes Flaggschiff.
 
zeedy schrieb:
Ich versteh ehrlich gesagt nicht ganz warum man nicht gleich raushaut was man zu bieten hat. Warum werden echte High End GPUs nur für den professionellen Bereich veröffentlicht. Sind denn CAD Animationen und Berechnungen so viel anspruchsvoller als moderne Spielegrafiken? Ein Crysis 3 mit Kantenglättung überfordert bereits jedes Flaggschiff.

Die wollen Geld verdienen, was glaubst du denn?

Intel könnte schon lange 6 Kerner für 200€ anbieten, warum machen sie es nicht? Weil sie diese auch für 500€ verkaufen können.

Kann man naiv sein :rolleyes:
 
zeedy schrieb:
Warum werden echte High End GPUs nur für den professionellen Bereich veröffentlicht.

Weil Nvidia dort wirklich Geld verdient, warum wohl sonst. 3/4 des Umsatzes kommen aus dem Consumerbereich, 3/4 des Gewinns aus dem Profibereich.

PS: da war ich wohl zu langsam...
 
Der Titan-Vollausbau wäre bei annehmbaren Taktraten gekauft ;).

Vergesst bitte auch die nach wie vor hohe Komplexität der GPU nicht. Somit ist es doch vollkommen klar, dass die vollaktiverten Einheiten zunächst im gewinnträchtigen Profi-Segment landen. NVIDIA ist wie jedes wirtschaftlich handelnde Unternehmen nicht die Wohlfahrt.
 
User6990 schrieb:
Szenario 1: AMD bringt im Herbst neue Karten die mit der Titan gleichauf sind (Preis ca 500€)

Szenario 2: AMD bringt 20nm Karten die die Titan sehr deutlich überholen (zur Zeit unwahrscheinlich)

AMD wäre in jedem Fall nahe an der Ultra bzw sogar schneller, und die AMD Karten werden sicher keine 1000€ kosten, von kontern kann hier also keine Rede sein :rolleyes:
Wie kommst du auf das schmale Brett?
Szenario 2 ist klar. Mit nem 20 nm Chip wirds natürlich einfach nen GK110 zu überrunden.

Aber warum sollte man in Szenario 1 nicht kontern können?
Wenn AMD noch Chips in 28 nm bringt die auf Titan Niveau sind dann wird eben die GTX780 massiv im Preis gesenkt und ne neue GK110 gebracht, die der neuen AMD-Karte gleich auf liegt oder übertrumpft, dann können sie wieder Wucherpreise verlangen.
Nvidias Preise sind ja nicht in Stein gemeißelt. Wenn die Konkurrenz Titan in den Schatten stellt wird dieser natürlich auch im preis fallen.
 
User6990 schrieb:
Die wollen Geld verdienen, was glaubst du denn?

Intel könnte schon lange 6 Kerner für 200€ anbieten, warum machen sie es nicht? Weil sie diese auch für 500€ verkaufen können.

Kann man naiv sein :rolleyes:
Ja dass vor allem Nvidia richtig fett verdienen will, ist mir schon klar. Ich erwarte auch keine Quadro für 500€. Nvidia hat doch mit der Titan ein absurd teures Produkt gebracht. Aber ist der Preis berechtigt? Nicht im Geringsten, denn eine HD7970GHz Edt. ist nicht einmal 30% langsamer, kostet aber deutlich weniger als die Hälfte. Ich mein, wenn man schon eine 1000€ Karte bringt, dann doch mit möglichst allem was man zu bieten hat. Damit hätte man die Konkurrenz quasi deklassiert und hätte auch bei uns Zockern ein besonderes Ansehen.

Aber wie Nvidia derzeit die Preise gestaltet soll man sich auch nicht wundern dass es immer mehr Konsolenspieler gibt und der PC als Spieleplattform immer weiter an Bedeutung verliert. Und könnte evtl. irgednwann nur noch was für Coregamer sein, die bereit sind 200-300€ allein für eine Grafikkarte auszugeben.

@smalm du meinst wohl 1/4 aus dem Consumerbereich.
 
Ja dass vor allem Nvidia richtig fett verdienen will, ist mir schon klar. Ich erwarte auch keine Quadro für 500€. Nvidia hat doch mit der Titan ein absurd teures Produkt gebracht. Aber ist der Preis berechtigt? Nicht im Geringsten, denn eine HD7970GHz Edt. ist nicht einmal 30% langsamer, kostet aber deutlich weniger als die Hälfte. Ich mein, wenn man schon eine 1000€ Karte bringt, dann doch mit möglichst allem was man zu bieten hat. Damit hätte man die Konkurrenz quasi deklassiert und hätte auch bei uns Zockern ein besonderes Ansehen.

Es haben sich aber genug Idioten gefunden für dieses Produkt, aber meines Erachtens und die Leute die ich kenne die eine Titan besitzen sind zumeist solche Menschen bei denen das einzige Hobby PCs sind und sonst wahrscheinlich gar keine Beschäftigung haben oder wer gibt 1000€ für eine GPU aus, obwohl man mit Crossfire und SLI je nach Spieleoptimierung auf Multi-GPU mit einem Gespann für 400€ die Leistung übertrumpft und eigentlich nach 2 Jahren nochmals ein starkes Gespann erwerben kann und man immer noch weniger ausgegeben hat als mit einer GTX Titan.

Aber wie Nvidia derzeit die Preise gestaltet soll man sich auch nicht wundern dass es immer mehr Konsolenspieler gibt und der PC als Spieleplattform immer weiter an Bedeutung verliert. Und könnte evtl. irgednwann nur noch was für Coregamer sein, die bereit sind 200-300€ allein für eine Grafikkarte auszugeben.

Es gibt Statistiken die beweisen dass es weit mehr Konsolen-Spieler gibt als PC-Gamer und das nicht ohne Grund zum Beispiel die Playstation 4 ist Blueray-Player, HTPC und Konsolen in einem und kostet um die 400€ und ein ordentlicher Gaming-PC mit dem man vielleicht ohne Aufrüsten um die 2 Jahre zockt liegt im Bereich von 800€, die Konsolen werden meist erst ein Upgrade nach 3-4 Jahren unterzogen.

Zusätzlich geht einfach durch kapitalistischen Gründen die Entwicklung künstlich langsamer im GPU-Sektor um Kunden im Endeffekt veraltete IT-Produkte total überteuert anzudrehen, denn zwischen GTX 600er und 700er Reihe ist nicht wirklich soviel Unterschied damit ein Kaufgrund da wäre. Es gäbe auch schon lange Engines wie die legendäre Fox Engine mit den Spiele wie Battelfield wie echt aussehen nur leider wird die Entwicklung absichtlich gedrosselt um immer eine hohe Gewinnspanne pro Jahr vorweisen zu können.
 
Vietcong schrieb:
Zusätzlich geht einfach durch kapitalistischen Gründen die Entwicklung künstlich langsamer im GPU-Sektor um Kunden im Endeffekt veraltete IT-Produkte total überteuert anzudrehen, denn zwischen GTX 600er und 700er Reihe ist nicht wirklich soviel Unterschied damit ein Kaufgrund da wäre.

Lol geiles Teil, ein Brüller! :lol:
 
Sind denn CAD Animationen und Berechnungen so viel anspruchsvoller als moderne Spielegrafiken? Ein Crysis 3 mit Kantenglättung überfordert bereits jedes Flaggschiff.

Oh ja. Ein Spiel hat eckige Kurven, wenig Polygone. Es wird versucht für 60fps eine glaubhafte Welt darzustellen. Da wird an allen ecken und kanten getrickst, damit das funktioniert. dynamisches Licht ist heute zwar auch schon in spielen, war aber lange nicht der fall.
Die Kanten in spielen sind ziemlich hässlich. 8x AA ist so ziemlich das höchste was es gibt. 4x4 SSAA. Da braucht aber leistung wie dämlich wie du vlt. weisst.

Nun im CAD bereich geht es aber um genauigkeit, da darf nicht getrickst werden. Da muss jeder millimeter auch ein millimeter sein. von CAD modellen werden nachher echte dinge gemacht. ist da die schraube nicht genau so wie sie sein soll, hast du nachher ein gewaltiges Problem.
Digital Prototyping ist da das stichwort. Dementsprechen hoch muss auch das AA sein, wie auch die polygonanzahl.

Ein Rad hat in einem Spiel vlt. 5000 Polygone. Im Cad muss es vlt. mind. 5mio haben. so als vergleich.
Mehr Polygone = mehr details = mehr genauigkeit.
Nebstdem das man Cad mit Raytracing befeuert und spiele mit pixel berechnet.

Quake 3 gibt es z.b. als Raytracing version. Da schaffen aktuelle geforce karten um die 30fps. Das spiel sieht dabei aber noch total hässlich aus und es werden nur ein paar dinge mit raytracing gemacht.

Die CAD karten schaffen z.b. auch 128x AA.

Die Quadros haben schon die daseinsberechtigung. das ganze funktioniert natürlich auch mit den Geforce karten. die skalieren aber bei weitem nicht so gut. Was die Quadros aber so teuer macht sind die treiber. Die sind nähmlich auf alle üblichen Programme abgestimmt und das lässt sich Nvidia teuer bezahlen...

Hardwaretechnisch ist nur wenig unterschied von einer Geforce zur Quadro. Aber die kleinen dingen machen doch einiges aus, aber wie gesagt, der treiber ist eigentlich der grosse punkt darin... :)

PS: hm meine Tastatur frisst nicht immer alle Tastendrucks -.-
 
dasmarci schrieb:
Nein, er meint das schon so, wie er es geschrieben hat.
Ups da war ich wohl schon zu müde um richtig zu lesen :lol:

@domidragon danke für die Erklärung!
Ich hab das auf der Hochschule halt so gelernt, dass die schöne runde Darstellung von z.B. kreisförmigen Objekten mit möglichst vielen Polygonen nur etwas fürs Auge ist. (ich hab da mit SolidWorks gearbeitet) Auf die richtige Bemaßung und die richtigen Tools kommt es doch letztendlich an. Nur aufwändige Animationen wie z.B. bei einem Verbrennungsmotor kosteten dann richtig Leistung. Mich würde mal interessieren wie sich da eine High End Gamer GPU schlagen würde. Bei uns hatten wir mein ich Firepros W5000 verwendet.

Edit: ach übrigens wie kommt es dann, dass diese Profi Karten beim Zocken nicht schneller sind als normale Gamer GPUs, obwohl sie doch so viel leistungsfähiger sind? Liegt es allein an der fehlenden Spieleoptimierung bei den Treibern? :confused_alt:
http://www.tomshardware.de/workstation-VGA-gaming-bechmark-review,testberichte-241173-13.html
 
Zuletzt bearbeitet:
Weil hier so einige wegen den Preisen der Titan etc. gegenüber AMD meckern. Schaut euch mal das P/L-Verhältnis der 5GHz-CPU von AMD an und dann das P/L-Verhältnis der Titan. Die Titan schneidet da meiner Meinung nach deutlich besser ab bei den Grafikkarten als die 5GHz-CPU. :P

@zeedy: ja, die Treiber sind das einzige große Hindernis, die Profi-Karten in Spielen zu funktionieren. Es heißt nicht, dass das gar nicht geht; in den meisten Spielen funktioniert es schon die Profi-Karten zu benutzen. Nur hat man statt der theoretisch möglichen 300frames eben nur 60 oder so.. man sieht ja auch allein bei den normalen Treiber-Aktualisierungen, wieviel Bonus-% das oftmals bringt (auch wenn das manchmal sehr spezifische Szenarien sind). Theoretisch kann man sicher auch mit einer 5 Jahre alten GPU heutige Top-Titel Ultra-Einstellungen (bis auf AA evtl) spielen, wenn man den Treiber bis aufs Mark optimiert.
 
Die CPU von AMD ist auch einfach nur Bullshit, nicht mehr und nicht weniger, kein Produkt das man ernst nehmen sollte ;)
 
ach übrigens wie kommt es dann, dass diese Profi Karten beim Zocken nicht schneller sind als normale Gamer GPUs, obwohl sie doch so viel leistungsfähiger sind? Liegt es allein an der fehlenden Spieleoptimierung bei den Treibern?

Theoretisch kann man sicher auch mit einer 5 Jahre alten GPU heutige Top-Titel Ultra-Einstellungen (bis auf AA evtl) spielen, wenn man den Treiber bis aufs Mark optimiert.

Konsolen machen nichts anderes, die haben noch ne ATI 1950 oder sowas drin und bringen BF3 noch flüssig zum laufen. klar auf niedrigen details und so, aber es läuft. auf dem PC wirst du mit so einer alten karte das spiel wohl kaum noch starten können und wenn doch mit 2fps...

Nebst den treibern liegt die stärke bei den Quadros auf anderen prozessoren, so haben sie meistens mehr shader und CUDA prozessoren als eine geforce. daher theoretisch auch mehr rohleistung. aber technisch sind sie wirklich sehr nahe de Geforce.
Im grunde nimmt Nvidia eine Geforce und baut sie in eine quadro um mit kleinen modifikationen. Bei älteren karten wie der 8800 er konnte man das sogar manuel auch noch machen und hatte dann eine quadro 2000 glaube ich. Quadros haben dann einfach zusätzliche funktionen wie AA lines und co. aber grundsätzlich könnte man die auch bei geforce karten aktivieren :)
aber ist logisch das nvidia die karten hier beschneidet. wäre ja sonst ein schuss ins eigene bein wenn man plötzlich keine nachteile mehr hat mit den geforce karten gegenüber den quadros. wie dies bei der 8800er serie der fall war :)

ATI karten haben allesamt mehr theoretische rohleistung wenn du die werte vergleichst, trotzdem sind sie immer schlechter als die nvidia karten (in spielen). Nvidia scheint da bessere treiber zu haben in dem punkt, die mehr aus der karte holen können. Kann gut sein, dass sich das von heut auf morgen ändert, wenn ATI das verbessert :)

In einem Satz könnte man sagen, Quadros sind GeForce karten mit wenigen zusätzlich aktiven Funktionen und gut optimierten treibern für professionelle anwendungen.

wenn nvidia soviel aufwand für die optimierung bei spielen investieren würde wie bei den quadros in die CAD programme, würden die spiele mind. 200% besser laufen.

aber wer bezahlt nvidia das? oder ati?

its all about the money :)
 
flo36 schrieb:
Exakt das sind Business Karten und ich kann nur sagen, dass sich unser Techniker für FEM darauf freuen wird^^

Welche FEM meinst du denn? In Catia V5 R19 ....läuft die FEM nur über die CPU Kerne ... weil sie Angst haben das GPGPU ihre 200.000 € Anlagen ad absurdum führen könnte.

Auch hier gilt Geschäftsmodell vor Fortschritt.

Die CPU von AMD ist auch einfach nur Bullshit, nicht mehr und nicht weniger, kein Produkt das man ernst nehmen sollte
@user6990 die AMD CPUs sind erstklassig unter CAx und Simulationen. Aber halt auf kosten der "Gamingexpierience" ...

Auch hier gilt das ist ein Werkzeug ... kein Spielzeug.
 
Zuletzt bearbeitet:
Ich kauf mir so ein Ding und steck mit einem Phenom x3 und 3gb ddr2 in das Gehäuse von so nen alten fertig-PC das ich herumstehen hab.
 
Ich sehe gerade das einige bei Ebay versuchen ihre veralteteten Quadro 6000 (ohne K) für mehr als 5000€ zu verscherbeln. Manche haben scheinbar Spaß daran den ganzen Tag die Leute zu verarschen.

Ein etwas eindeutigeres Namensschema wäre durchaus angebracht gewesen.
 
Die hatten Wasserkühlung, mit Luft sind sie laut PCGH auf 100Grad. Die haben ein noch besseres Messgerät im Wert von 40.000€. Besser kann man nicht messen. Unterstreicht mal wieder deutlich das sie immer noch die Referenz sind wenns um GPU Tests geht.

Eine Backplate würde hier schon Abhilfe schaffen, aber NV hat ja einen Stock im A. und gibt keine Costum Designs frei.
 
Zuletzt bearbeitet:
domidragon schrieb:
ATI karten haben allesamt mehr theoretische rohleistung wenn du die werte vergleichst, trotzdem sind sie immer schlechter als die nvidia karten (in spielen). Nvidia scheint da bessere treiber zu haben in dem punkt, die mehr aus der karte holen können. Kann gut sein, dass sich das von heut auf morgen ändert, wenn ATI das verbessert :)
Also erstens gibt es kein Ati mehr, schon seit langem und zweitens ist die Behauptung AMD Karten wären in Spielen immer schlechter als Nvidia totaler Schwachsinn. Bis die 1000€ Geforce vorgestellt wurde, hatte AMD mit der HD7970GHz Edt. die schnelle Single GPU. Bei Nvidias "neuer" Generation ist einzig die GTX 780 schneller. Der übertaktete GK104 in der GTX 770 liegt in etwa auf einem Niveau mit AMD's Flaggschiff. Und auf den Mythos der "besseren Treiber" bei Nvidia will ich gar nicht mehr eingehen ;)
 
Zurück
Oben