Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Wird aus GeForce GT 640 GDDR5 eine GeForce GTS 650?
- Ersteller Wolfgang
- Erstellt am
- Zur News: Wird aus GeForce GT 640 GDDR5 eine GeForce GTS 650?
dergraf1
Lt. Commander
- Registriert
- Juni 2010
- Beiträge
- 1.785
Sowas hat Nvidia ja auch nicht nötig GHz Edition
hat nvidia die gtx 680 nicht von anfang an mit 1006mhz rausgebracht ?!
nvidia hatt 3 monate vorteil und das amd nach 4 monaten nvidia
die ghz edition rausbringt ist auf einmal ein fehler..?
Lars_SHG
Fleet Admiral
- Registriert
- Sep. 2008
- Beiträge
- 15.377
@ KodeX
https://www.computerbase.de/2011-12/test-amd-radeon-hd-7970/24/
https://www.computerbase.de/2011-12/test-amd-radeon-hd-7970/15/
https://www.computerbase.de/2012-03/test-nvidia-geforce-gtx-680/14/
ist zwar ok und für den Kampf mit dem Wettbewerber reicht es ja auch, aber der Burner ist es auch nicht!
Im übrigen ist sie nicht "die schnellste Grafikkarte auf der Welt" - da gibt es immerhin noch Dual-GPU-Karten - abgesehen davon, ist sie auch nicht immer schneller, wir wissen ja, dass ihr wegen dem fehlenden VRAM schon mal der Speicher ausgeht!
Alles ziemlich mittelmäßig für eine High-End Karte wie ich finde.....
sagen wir rund 35%, das triffts eher.....die HD 7970 trotz (fast) 50-prozentiger Mehrleistung
https://www.computerbase.de/2011-12/test-amd-radeon-hd-7970/24/
In 1.920 × 1.080 arbeitet die Karte etwa 20 Prozent schneller als eine GeForce GTX 580 (8xMSAA außen vor gelassen) und ungefähr 35 Prozent flotter als die Radeon HD 6970.
unter Last in etwa gleich, im idle ist sie aber besser, das ist richtig!etwas weniger Strom als eine HD 6970
https://www.computerbase.de/2011-12/test-amd-radeon-hd-7970/15/
im Vergleich zu der GTX 580 sind es im Mittel wohl rund 40%.....Die Grafikkarte des Wettbewerbers ist nicht relativ langsam, sondern sie ist ziemlich schnell
https://www.computerbase.de/2012-03/test-nvidia-geforce-gtx-680/14/
ist zwar ok und für den Kampf mit dem Wettbewerber reicht es ja auch, aber der Burner ist es auch nicht!
Im übrigen ist sie nicht "die schnellste Grafikkarte auf der Welt" - da gibt es immerhin noch Dual-GPU-Karten - abgesehen davon, ist sie auch nicht immer schneller, wir wissen ja, dass ihr wegen dem fehlenden VRAM schon mal der Speicher ausgeht!
https://www.computerbase.de/2012-03/test-nvidia-geforce-gtx-680/30/Fairerweise müssen wir aber anmerken, dass der GeForce GTX 680 in dem Szenario teilweise der 2.048 MB große Speicher ausgeht.
Alles ziemlich mittelmäßig für eine High-End Karte wie ich finde.....
Darum geht es ja, wie ich geschrieben habe - es hat ja gereicht, mit der vermeintlichen Mittelklasse-Karte GTX680 schon die aktuellen High-End AMD-Karten Paroli zu bieten!Der GK104 ist nicht die Mittelklasse von Nvidia, sondern das schnellste was Nvidia überhaupt zu bieten hat.
TheRaven666
Lieutenant
- Registriert
- Feb. 2011
- Beiträge
- 878
Das Gelaber der nVidia Fanboys hier hältst du im Kopf nicht aus. Hört endlich auf damit den Hersteller meines Grafikchips so verdammt schlecht aussehen zu lassen. Bei dem Schwachfug den einige Grüne hier verzapfen bleibt einem nicht viel mehr als verständnisloses Kopfschütteln über.
Mir ist klar, dass es der feuchte Traum eines jeden nVidia-Jüngers ist einmal behaupten zu können "nVidia hat AMDs High-End Chip mit seiner Mittelklasselösung gepwnz9ert und g3b4sh0rt!!!11einself", aber wie lächerlich diese Aussage von vorneherein schon ist erschließt sich diesen Amöben im Geiste scheinbar nicht. Schade das ein paar wenige Fanboys einen ordentlichen und im Aufschwung befindlichen Grafikchiphersteller aussehen lassen wie ein baufälliges Wirtshaus voller Geschmeiss.
Mir ist klar, dass es der feuchte Traum eines jeden nVidia-Jüngers ist einmal behaupten zu können "nVidia hat AMDs High-End Chip mit seiner Mittelklasselösung gepwnz9ert und g3b4sh0rt!!!11einself", aber wie lächerlich diese Aussage von vorneherein schon ist erschließt sich diesen Amöben im Geiste scheinbar nicht. Schade das ein paar wenige Fanboys einen ordentlichen und im Aufschwung befindlichen Grafikchiphersteller aussehen lassen wie ein baufälliges Wirtshaus voller Geschmeiss.
KodeX
Lt. Commander
- Registriert
- Aug. 2006
- Beiträge
- 1.234
Lars_SHG schrieb:sagen wir rund 35%, das triffts eher.....
https://www.computerbase.de/2011-12/test-amd-radeon-hd-7970/24/
Das finde ich nicht. 35 % ist vielleicht das unterste der Fahnenstange, also unter der CPU-limitierenden Auflösung 1920x1080. In CBs neuem Testparcours sind es tatsächlich fast 50 %.
https://www.computerbase.de/2012-06/test-amd-radeon-hd-7970-ghz-edition/4/
Wäre die HD 6970 auch noch im Multimonitorbetrieb getestet worden, wäre der Unterschied mit Sicherheit noch größer ausgefallen.
In der Vergangenheit gab es selten höhere Performancesprünge zwischen den Generationen.
Geforce 7800 GTX
Radeon X1800 XT
Geforce 8800 GTX
Radeon HD 2900 XT
Geforce GTX 280
Sogar wenn man die HD-3000- und HD-6000-Serie sowie die Geforce-9000- und die GTX-500-Serie auslässt ist der Leistungszuwachs in den ersten Tests immer bei zirka 30 bis 60 % (je nach Auflösung).
Ich finde es generell nicht richtig die Geforce GTX 680 als Mittelklasse-Grafikkarte abzustempeln. Das ist schlicht und ergreifend falsch und irgendwie ganz schön respektlos.
Vitec
Commodore
- Registriert
- Okt. 2006
- Beiträge
- 4.920
Nv hätte den Vorteil keinen GK100 zu bringen, dass sie ihre Mittelklassekarten die die Performance der 79xx erreichen statt um 200-300 um rund 400€ verkaufen können.
Daher ca 100€ mehr Reingewinn , wobei das jetzt nur spekulation von mir ist.
Wobei natürlich Prestigemässig wäre ne Karte die mal wirklich nicht nur 5-10% , sonder mal 30% vor der Konkkurrenz liegt auch was wert.
Und die Kosten für die Entwicklung dieses chips wurde ja auch schon investiert von daher ist das ganze wieder sehr komisch.
Daher ca 100€ mehr Reingewinn , wobei das jetzt nur spekulation von mir ist.
Wobei natürlich Prestigemässig wäre ne Karte die mal wirklich nicht nur 5-10% , sonder mal 30% vor der Konkkurrenz liegt auch was wert.
Und die Kosten für die Entwicklung dieses chips wurde ja auch schon investiert von daher ist das ganze wieder sehr komisch.
Herdware
Fleet Admiral
- Registriert
- Okt. 2011
- Beiträge
- 17.896
KodeX schrieb:...
Ich finde es generell nicht richtig die Geforce GTX 680 als Mittelklasse-Grafikkarte abzustempeln. Das ist schlicht und ergreifend falsch und irgendwie ganz schön respektlos.
Dann sag das Nvidia, die die GPU kätzerischerweise selbst GK104 genannt haben und nicht GK100.
Außerdem muss man doch nur ein paar technischen Daten vergleichen:
G80/8800GTX
Größe: 484 mm2
Speicherinterface: 384 Bit
GT200(b)/GTX280/285:
Größe: 576/470 mm2
Speicherinterface: 384 Bit
GF100/GTX480:
Größe: 526 mm2
Speicherinterface: 384 Bit
GF110/GTX580:
Größe: 520mm2
Speicherinterface: 384 Bit
Und auf der anderen Seite z.B.:
GF104/GTX460:
Größe: 332 mm2
Speicherinterface: 256 Bit
GF114/GTX560:
Größe: 332 mm2
Speicherinterface: 256 Bit
...und dann der GK104 aus der GTX680:
Größe: 294 mm2
Speicherinterface: 256 Bit
In welche Reihe sortiert sich die GK104 also ein?
Selbst wenn man nicht naheliegenderweise einfach auf die Bennenung schaut, und damit, wo Nvidia selbst diese GPU einsortiert, es ist doch wohl mehr als offensichtlich.
Herrjeh! Des Grafikkarten selbst sieht man es doch auch auf den ersten Blick an, was sie sind, besonders der GTX670.
Ist das etwa eine High-End-Karte in Tradition von GTX 470 und 570?
ODer erinnert die nicht eher an sowas?
Warum Nvidia diesmal die 500mm2-, 382Bit-, bis zu 300W-TDP- High-End-GPU weggelassen hat, darüber kann man nur spekulieren. Aber Fakt ist, dass die kleine GK104 keine GPU dieser Art ist, sondern ein astreiner Abkömmling der GF104/114. Und dafür muss man sich ja auch nicht "schämen". Das sind verdammt potente "kleine" Performance-GPUs. Aber eben keines der großen "Schlachtschiffe", mit denen Nvidia seit der legendären G80 die Konkurrenz fast durchgängig in Schach gehalten hat.
Zuletzt bearbeitet:
Fehlermeldung
Commander
- Registriert
- Apr. 2010
- Beiträge
- 2.181
gWas soll eigentlich immer der Quatsch mit dem angeblichen GK 100? Das ist doch Quatsch ein Produkt, das fertig entwickelt ist nicht auf den Markt zu bringen. Wenn sie es könnten würden sie es tun. So viel effizienter ist nVidia auch nicht. Vergesst nicht: Der Speicher AMDs Topkarten ist 50% größer -> mehr Energie benötigt, ein größeres Speicherinterface lässt den Energieverbrauch auch nicht sinken usw. Zumal die GPGPU Leistung der nVidia Karten armselig ist. Wenn ich mir die next Gen Konsolen ansehe (schon ein wenig darauf ausgelegt die GPU nicht nur zur Grafikberechnung zu nutzen...) und wie stark die Kepler Karten in solchen spielen einbrechen (Metro 2033) kann ich gar nicht wirklich sagen ob der Weg nVidias richtig ist.
aber BTT:
Ich finde nVidia sollte auch einen Konter zur HD78x0 Reihe bringen. Wenn man sich die Kaufberatungsthreads so ansieht werden die ständig empfohlen.
Für den OEM Markt reicht eh alles was der Mediamarkt neu und Gaming nennt.
aber BTT:
Ich finde nVidia sollte auch einen Konter zur HD78x0 Reihe bringen. Wenn man sich die Kaufberatungsthreads so ansieht werden die ständig empfohlen.
Für den OEM Markt reicht eh alles was der Mediamarkt neu und Gaming nennt.
Zuletzt bearbeitet:
Nureinnickname!
Commodore
- Registriert
- Jan. 2010
- Beiträge
- 4.178
Die GTX680 wurde ja auch komplett auf Gaming Optimiert, deswegen sieht die ja auch gegen die 7970 bei OpenCL kein land. Und dafür kann die AMD bei games noch gut mithalten, also von wegen, mehr erwartet. Ich hätte mir von der Nvidia mehr OpenCL leistung erwartet. z.b Luxmark Klick ich weiß aber nicht ob es sich mitterweile mit neueren Treibern verbessert hat.
Herdware
Fleet Admiral
- Registriert
- Okt. 2011
- Beiträge
- 17.896
@ Fehlermeldung
Und warum ist der Speicher der AMD-Karte so viel größer?
Weil die Tahiti von Anfang an als High-End-Modell mit 384 Bit-Speicherinterface entwickelt wurden, während in den GTX680 nur eine GK104-GPU mit 256 Bit-Speicherinterface steckt, wie bei den Vorgängern GF104 und GF114.
Eine GTX680 mit GK100-GPU hätte dank 384Bit-Speicherinterface ebenfalls 3GB Speicher gehabt. (So wie auch schon einige OEM-Varianten der GTX580.)
Und warum soll das so undenkbar sein, dass es Gründe geben kann, die High-End-GPU nicht zu bringen?
Ich habe es schon zwei mal geschrieben:
Man stelle sich vor, 2009/2010 hätte Nvidia AMDs HD5800er mit der GF104/GTX460 kontern können. Was hätten sie dann wohl getan?
Die problematischen, hitzköpfen, stromfressenden GF100-GPUs trotzdem gebracht?
Oder einfach kurzerhand die GTX460 in GTX480 und GTX470 umbenannt, entsprechend teuer verkauft und erst mit der nächsten Generation die dann optimierte GF110 in der GTX580 gebracht, so wie Fermi ursprünglich hätte sein sollen.
Wie viel Ärger, Hohn, Spot, schlechte PR und nicht zuletzt Kosten hätte sich Nvidia damit erspart?
Nvidia befindet sich heute, im Gegensatz zu vor 2 Jahren, in der glücklichen Situation, die wahrscheinlich ähnlich wie die GF100 nicht wirklich unproblematische, große und in der Herstellung teure GK100 nicht unbedingt jetzt auf Teufel komm raus bringen zu müssen, sondern sich noch ein weiteres Jahr für die Optimierung Zeit lassen zu können und sie dann als GK110/GTX780 zu bringen.
So lange hält die kleinere GK104 die Stellung und wird zu High-End-Preisen verkauft.
Ich sehe auch einfach nicht, warum Nvidia plötzlich von vornherein mit der Tradition der 500mm2, 384Bit-, 300W-GPUs hätte brechen sollen und statt dessen nur noch eine GPU der Größenordnung der bisherigen Performance-Modelle als neues High-End zu entwickeln, das letztendlich gerade mal so als Punktlandung auf dem Niveau von AMDs Tahiti liegt.
Das wäre doch ein gewaltiges Risiko für NV gewesen.
Was wenn Tahiti doch noch etwas besser abgeschnitten hätte (wie es Nvidia ja nach eigener Aussage erwartet hatte)?
Dann hätte sich Nvidia frustriert aber so was von in den eigenen Allerwertesten gebissen, weil sie diesmal nicht ansatzweise die Grenzen des für sie technisch Möglichen ausgereizt haben und AMD somit für mindestens ein Jahr das High-End-Segment komplett überlassen hätten.
Nein. Derartig auf Risiko würden die niemals spielen. Die wussten ja nicht genau, wie stark Tahiti werden würde und mussten mit dem (für sie) Schlimmsten rechnen.
Deswegen gehe ich jede Wette ein, die GK100 wurde entwickelt und wahrscheinlich auch als Testexemplar in kleineren Stückzahlen produziert.
Aber als Nvidia Ende 2011 AMDs Tahiti sah, haben die einfach beschlossen, die GK100 nicht zu vermarkten sondern noch ein Jahr länger zu optimieren.
Und wenn sie Ende 2012/Anfang 2013 immer noch in der konfortablen Lage sind, dass ein 300mm2-Chip ausreicht, um AMD in Schach zu halten, dann wird die GK110 halt nur als professionelle Tesla-Karte vermarktet.
Win-Win!
Und warum ist der Speicher der AMD-Karte so viel größer?
Weil die Tahiti von Anfang an als High-End-Modell mit 384 Bit-Speicherinterface entwickelt wurden, während in den GTX680 nur eine GK104-GPU mit 256 Bit-Speicherinterface steckt, wie bei den Vorgängern GF104 und GF114.
Eine GTX680 mit GK100-GPU hätte dank 384Bit-Speicherinterface ebenfalls 3GB Speicher gehabt. (So wie auch schon einige OEM-Varianten der GTX580.)
Und warum soll das so undenkbar sein, dass es Gründe geben kann, die High-End-GPU nicht zu bringen?
Ich habe es schon zwei mal geschrieben:
Man stelle sich vor, 2009/2010 hätte Nvidia AMDs HD5800er mit der GF104/GTX460 kontern können. Was hätten sie dann wohl getan?
Die problematischen, hitzköpfen, stromfressenden GF100-GPUs trotzdem gebracht?
Oder einfach kurzerhand die GTX460 in GTX480 und GTX470 umbenannt, entsprechend teuer verkauft und erst mit der nächsten Generation die dann optimierte GF110 in der GTX580 gebracht, so wie Fermi ursprünglich hätte sein sollen.
Wie viel Ärger, Hohn, Spot, schlechte PR und nicht zuletzt Kosten hätte sich Nvidia damit erspart?
Nvidia befindet sich heute, im Gegensatz zu vor 2 Jahren, in der glücklichen Situation, die wahrscheinlich ähnlich wie die GF100 nicht wirklich unproblematische, große und in der Herstellung teure GK100 nicht unbedingt jetzt auf Teufel komm raus bringen zu müssen, sondern sich noch ein weiteres Jahr für die Optimierung Zeit lassen zu können und sie dann als GK110/GTX780 zu bringen.
So lange hält die kleinere GK104 die Stellung und wird zu High-End-Preisen verkauft.
Ich sehe auch einfach nicht, warum Nvidia plötzlich von vornherein mit der Tradition der 500mm2, 384Bit-, 300W-GPUs hätte brechen sollen und statt dessen nur noch eine GPU der Größenordnung der bisherigen Performance-Modelle als neues High-End zu entwickeln, das letztendlich gerade mal so als Punktlandung auf dem Niveau von AMDs Tahiti liegt.
Das wäre doch ein gewaltiges Risiko für NV gewesen.
Was wenn Tahiti doch noch etwas besser abgeschnitten hätte (wie es Nvidia ja nach eigener Aussage erwartet hatte)?
Dann hätte sich Nvidia frustriert aber so was von in den eigenen Allerwertesten gebissen, weil sie diesmal nicht ansatzweise die Grenzen des für sie technisch Möglichen ausgereizt haben und AMD somit für mindestens ein Jahr das High-End-Segment komplett überlassen hätten.
Nein. Derartig auf Risiko würden die niemals spielen. Die wussten ja nicht genau, wie stark Tahiti werden würde und mussten mit dem (für sie) Schlimmsten rechnen.
Deswegen gehe ich jede Wette ein, die GK100 wurde entwickelt und wahrscheinlich auch als Testexemplar in kleineren Stückzahlen produziert.
Aber als Nvidia Ende 2011 AMDs Tahiti sah, haben die einfach beschlossen, die GK100 nicht zu vermarkten sondern noch ein Jahr länger zu optimieren.
Und wenn sie Ende 2012/Anfang 2013 immer noch in der konfortablen Lage sind, dass ein 300mm2-Chip ausreicht, um AMD in Schach zu halten, dann wird die GK110 halt nur als professionelle Tesla-Karte vermarktet.
Win-Win!
Rockstar85
Admiral
- Registriert
- Sep. 2004
- Beiträge
- 8.807
Leute, manchmal frage ich mich echt was für Menschen hinter den Accounts hier sitzen.. Da kann man nur noch den Kopf über soviel unwissen schütteln
zum Thema Fertigungsprozess:
Natürlich ist ein 90nm einfacher zu Händeln als ein 28nm Prozess ...Warum? Die Strukturgrößen sind viel einfacher zu schaffen, Leckströme waren in 90nm auch nicht so das Massive Problem. So langsam kommen wir in einen Bereich wo man eben mal nicht so einfach 100% mehr Leistung herausbekommt, so wie es sich manch ein Unwissender wünscht. Man kann von Glück reden, dass 28nm nun doch noch "gut" läuft, sicherlich kein Vergleich zu 40nm oder 65nm aber eben doch gut..So ehrgeizige Ziele wie Intel mit Haswell Tock auf 14nm, das will ich in der Freien wirtschaft sehen.. Ich sage euch hier und heute, dass tsmc, glofo und wie sie alle heissen, Jahre brauchen bis 14nm Marktreif ist. Die Leckströme sind so enorm in solchen kleinen Struckturbreiten, da wird jede noch so Effiziente Architektur Technisch an die Grenzen geführt. Es zeugt von Ignoranz zu denken dass 28nm so einfach Beherrschbar ist. eine GPU ist keine CPU vergesst das nicht
Und Herdware, ich kann dir versichern, dass NV vllt Testsamples hatte und auch einen Tapeout aber Wirtschaftlich war die Karte niemals, und nur deshalb wurde sie gecancelt. Aber das NV Marketing und die Katze wissen ja wie man Publicity macht so das jeder Grüne Jünger Blind hinterherrennt
Ich würde zu gerne gesehen haben wir NV und AMD Pleite gehen weil sie nur eine Yieldrate von 3% - 5% haben und der Rest Abfall ist. wenn ihr Pro Karte 2000€ Bezahlen möchtet dann wünscht euch nur weiterhin solchen Schmarrn. Ich Schätze die Derzeitige Yieldrate wird vllt bei 45-50 stehen, kein Vergleich was man bei 90nm oder 40nm noch an Raten hatte
Meine Leistungsprognose für die NÄCHSTEN Jahre sieht eher danach aus dass wir im besten Fall 40% Mehrleistung schaffen werden und wie gesagt, technisch stehen wir kurz vor der Grenze des noch machbaren. Das wird auch Intel mittlerweile spüren. Und wenn man sich Anschaut das andre Fabs noch auf 120nm oder 90nm laufen, dann sollte diesen Ignoranten Leuten mal klar werden, dass das nicht einfach mal so gemacht ist. Spätestens bei 14nm wird für Grafikkarten erstmal Schluss sein, solange Wafer aus Silicium sind und keine Alternativen gefunden werden. Bis wir 14nm Grafikkarten sehen, werden Jahre vergehen.
zum Thema Fertigungsprozess:
Natürlich ist ein 90nm einfacher zu Händeln als ein 28nm Prozess ...Warum? Die Strukturgrößen sind viel einfacher zu schaffen, Leckströme waren in 90nm auch nicht so das Massive Problem. So langsam kommen wir in einen Bereich wo man eben mal nicht so einfach 100% mehr Leistung herausbekommt, so wie es sich manch ein Unwissender wünscht. Man kann von Glück reden, dass 28nm nun doch noch "gut" läuft, sicherlich kein Vergleich zu 40nm oder 65nm aber eben doch gut..So ehrgeizige Ziele wie Intel mit Haswell Tock auf 14nm, das will ich in der Freien wirtschaft sehen.. Ich sage euch hier und heute, dass tsmc, glofo und wie sie alle heissen, Jahre brauchen bis 14nm Marktreif ist. Die Leckströme sind so enorm in solchen kleinen Struckturbreiten, da wird jede noch so Effiziente Architektur Technisch an die Grenzen geführt. Es zeugt von Ignoranz zu denken dass 28nm so einfach Beherrschbar ist. eine GPU ist keine CPU vergesst das nicht
Und Herdware, ich kann dir versichern, dass NV vllt Testsamples hatte und auch einen Tapeout aber Wirtschaftlich war die Karte niemals, und nur deshalb wurde sie gecancelt. Aber das NV Marketing und die Katze wissen ja wie man Publicity macht so das jeder Grüne Jünger Blind hinterherrennt
Ich würde zu gerne gesehen haben wir NV und AMD Pleite gehen weil sie nur eine Yieldrate von 3% - 5% haben und der Rest Abfall ist. wenn ihr Pro Karte 2000€ Bezahlen möchtet dann wünscht euch nur weiterhin solchen Schmarrn. Ich Schätze die Derzeitige Yieldrate wird vllt bei 45-50 stehen, kein Vergleich was man bei 90nm oder 40nm noch an Raten hatte
Meine Leistungsprognose für die NÄCHSTEN Jahre sieht eher danach aus dass wir im besten Fall 40% Mehrleistung schaffen werden und wie gesagt, technisch stehen wir kurz vor der Grenze des noch machbaren. Das wird auch Intel mittlerweile spüren. Und wenn man sich Anschaut das andre Fabs noch auf 120nm oder 90nm laufen, dann sollte diesen Ignoranten Leuten mal klar werden, dass das nicht einfach mal so gemacht ist. Spätestens bei 14nm wird für Grafikkarten erstmal Schluss sein, solange Wafer aus Silicium sind und keine Alternativen gefunden werden. Bis wir 14nm Grafikkarten sehen, werden Jahre vergehen.
Zuletzt bearbeitet:
KodeX
Lt. Commander
- Registriert
- Aug. 2006
- Beiträge
- 1.234
Herdware schrieb:G80/8800GTX
Größe: 484 mm2
Speicherinterface: 384 Bit
GT200(b)/GTX280/285:
Größe: 576/470 mm2
Speicherinterface: 384 Bit
GF100/GTX480:
Größe: 526 mm2
Speicherinterface: 384 Bit
GF110/GTX580:
Größe: 520mm2
Speicherinterface: 384 Bit
Die GTX 280 hatte ein 512 Bit breites Speicherinterface. War das jetzt eine Super-High-End-Grafikkarte ?
In deiner Aufzählung lässt du die Geforce 9800 GTX (256 Bit, 324/276 mm²) aus. Oder war das etwa auch keine High-End-Grafikkarte ?
High-End wird an der Leistung und am Preis (und eventuell am Verkaufsnamen) gemessen, weil genau das die kundenwichtigen Faktoren sind. Es kommt doch nicht auf die herstellerwichtigen Faktoren wie DIE-Fläche bzw. Herstellungskosten an. Nur weil Nvidia seine Strategie im High-End-Bereich geändert hat, sind es doch immer noch High-End-Produkte. AMD Hat diese Änderung mit dem RV670 schon viel früher durchgezogen. Geht es nach deiner Logik, dann hätte AMD seit dem auch nur Mittelklasse-Grafikkarten herausgebraucht...
Zuletzt bearbeitet:
x-polo
Lt. Commander
- Registriert
- Jan. 2005
- Beiträge
- 2.019
GK 107 mit GDDR5 dürft kaum schneller sein als HD 7750er.
Die HD7750 ist etwa 40%, HD7770er ist dann schon 80% schneller als die Geforce GT640 (Retail ,DDR3).
Mit GDDR5 VRam kommt vielleicht nähe der HD 7750 aber keinesfalls wird man damit eine Leistung wie die Radeon HD 7770 erreichen.
Die HD7750 ist etwa 40%, HD7770er ist dann schon 80% schneller als die Geforce GT640 (Retail ,DDR3).
Mit GDDR5 VRam kommt vielleicht nähe der HD 7750 aber keinesfalls wird man damit eine Leistung wie die Radeon HD 7770 erreichen.
Hardware_Hoshi
Lt. Commander
- Registriert
- Jan. 2008
- Beiträge
- 1.478
Ball_Lightning schrieb:Das ist (noch immer!) völliger Unfug.
Ist es das? Dann erkläre mir doch einmal, wieso z.b. die GTX670 teilweise die kürzeste Platine aller Zeiten nur mit einem üblich großen Kühler hat! Anderes Beispiel wäre die absurd geringe Größe des Chips, der abolsut untypisch ist für Nvidia. Hat sich niemand die Augen gerieben, als AMD im Effizientvergleich plötzlich unterlegen war? Normalerweise ist es umgekehrt!
Es ist eher wahrscheinlich dass der GK100/110 vom Design der Kategorie 220-300W angehörte (bei ~50% mehr Performance?), jedoch aufgrund von Yieldproblemen und dem Fehlen der Konkurrenz (AMD) hier ihre kleineren Ableger an den start bringen?
--> Natürlich müssten sie dafür die Unter-/Mittelklasse ein wenig zurückstellen... das macht momentan einfach Sinn! Deshalb haben wir noch keine GT640-GTX660.
In der Regel könnte man die aktuellen GK104er einfach beschneiden, jedoch hat man ein Problem mit der Abstufung. Man vergleiche den fast nicht existenten Unterschied zwischen GTX680 und GTX670. viel zu nahe zusammen!
KodeX schrieb:Ich denke, dass der GK110 bzw. GK100 bis jetzt einfach noch nicht möglich ist. Ich vermute, dass die Yield-Raten momentan einfach zu schlecht sind und/oder die GPU nicht auf die gewünschten Taktfrequenzen kommt. Möglicherweise verbrauchen die ersten Samples auch so viel Strom, dass man sie so nicht auf den Markt bringen kann.
Schön geschrieben und von mir extra unterstrichen! Subjektive Spekulation hilft nicht weiter! Zurzeit wissen wir nur, dass ein evtl. möglicher GK100/110 nicht gekommen ist. Die Gründe weiß bisher ausschließlich Nvidia und ein kleiner Kreis von Eingeweihten (Fertiger, Reseller etc.)
Vielleicht erfahren wir irgendwann einmal die Gründe ... oder auch nie!
_______________________
KodeX schrieb:Die GTX 280 hatte ein 512 Bit breites Speicherinterface. War das jetzt eine Super-High-End-Grafikkarte ?
Ihr redet beide Unsinn! Die Stärke einer Karte kann man nicht am Speicherinterfache (SI) alleine ausmachen!
Die Performance einer Karte ist ein Verhältnis zwischen:
-Speicherinterfache (SI)
-Taktraten
-Speicherart (z.B. [G]DDR3 oder 5)
-Anzahl der aktiven Rechenblöcke/-einheiten (ROPS)
Ein 512 Bit SI wird keine Leistung bringen, wenn es mit Low-Performance-Speicher ausgestattet ist. Anders hingegen kann man mit kleinem Speicherinterface mit Performance-RAM (GDDR5) einiges an Mehrleistung herausholen.
Die GTX280 ist ein Beispiel für ersteres: Großes SI mit mittlerem/schlechten Speicher (GDDR3!!!) - mit GDDR5 wäre die Karte Bombe gewesen, hätte allerdings Strom geschluckt wie ein V8 Benzin.... noch mehr als sie ohnehin schon tat!
Je größer das Speicherinterface, desto höher sowohl die Herstellungskosten (=aufwendige/komplexe Produktion) und der entsprechende Stromverbrauch!
_______________________
davidzo schrieb:naja, den Vergleich zur alten Generation zu gewinnen ist einfach - bei nvidia stagniert die Leistung in diesem Preisbereich seit etwa 3 Jahren.
Das ist nicht nur bei Nvidia der Fall! Der gesamte Low-End-Bereich im Grafiksektor vegetiert seit Jahren vor sich hin. Teilweise aus Angst vor der erstarkten Konkurrenz der integrierten Grafik der neueren CPUs.
Die AMD HDx770er treten fast auf der Stelle mit minimalen Verbesserungen. Nvidia hingegen labelt zumindest für die letzten Generationen eher um als Neuware zu bringen.
Es fühlt sich eher an wie leichte Kosmetik! Wer im HTPC-Bereich unterwegs ist, kann ein Lied davon singen!
davidzo schrieb:Der wirkliche Konkurrent müsste die HD7770 sein und da ist man mit lediglich knapp 30% mehrleistung gegenüber der GT640 nicht mal ansatzweise in der nähe.
Wenn ich es richtig im Kopf habe hat die HD7770 etwa 25-40% mehr Performance als die GT640 (GDDR3). Dass das Nvidia-Pendant hoffnungslos bandbreitenlimitiert ist, brauchen wir nicht zu diskutieren!
Überall heißt es jedoch, die GT640 mit GDDR5 würde es mit der HD7770 aufnehmen. Ich lasse dies hier einfach im Raum. Warum? Wie die aktuelle News mitteilt kommt diese Karte evtl. nicht für den Massenmarkt sondern mit leichten Veränderungen => GTS650 (!) ???
Zuzutrauen wäre es Nvidia durchaus. Die Frage ist noch wie sie diese Karte bringen?
-Single-Slot + Passiv?
-Wie hoch ist der Stromverbrauch?
-Low-Profile ohne Abstriche?
-Preis + Verfügbarkeit?
Zuletzt bearbeitet:
Rockstar85
Admiral
- Registriert
- Sep. 2004
- Beiträge
- 8.807
Wenn ich es richtig im Kopf habe hat die HD7770 etwa 25-40% mehr Performance als die GT640 (GDDR3). Dass das Nvidia-Pendant hoffnungslos bandbreitenlimitiert ist, brauchen wir nicht zu diskutieren!
Überall heißt es jedoch, die GT640 mit GDDR5 würde es mit der HD7770 aufnehmen. Ich lasse dies hier einfach im Raum. Warum? Wie die aktuelle News mitteilt kommt diese Karte evtl. nicht für den Massenmarkt sondern mit leichten Veränderungen => GTS650 (!) ???
Zuzutrauen wäre es Nvidia durchaus. Die Frage ist noch wie sie diese Karte bringen?
-Single-Slot + Passiv?
-Wie hoch ist der Stromverbrauch?
-Low-Profile ohne Abstriche?
-Preis + Verfügbarkeit?
Das kann und will ich so nicht stehen lassen..
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/23033.html
http://www.3dcenter.org/news/eine-performance-einordnung-der-geforce-gt-640
Sorry aber wer sowas behauptet, hat jeden Blick für die Realität verloren. Selbst mit GDDR5 ist die GT640 immernoch Meilenweit weg von einer HD7770, vom P/L Verhältnis mal abgesehen.. die Kepler Karten sind mit Fehlenden SI Krüppel, mit einem 192er SI könnte man vllt die 7770 überholen, aber nicht mir nur GDDR5
Wenn du aus der 7770 ne 7750 machst dann stimmt das, aber damit steht dann NV seit Jahren auf der gleichen Stelle. Da kannste dir auch ne GTX550Ti oder ne GTS450 kaufen die kostet weniger und ist damit P/L technisch besser. 50% mehr Leistung nur durch GDDR5? Na da träumst du aber gewaltig
Den Andren Kram von dir lasse ich mal Unkommentiert, scheinbar sind hier mehr Hardwareexperten Unterwegs als bei NV und Intel sowie AMD zusammen..
Zuletzt bearbeitet:
x-polo
Lt. Commander
- Registriert
- Jan. 2005
- Beiträge
- 2.019
Fast richtig ,40% passt eher zu 7750 .Hardware_Hoshi schrieb:Wenn ich es richtig im Kopf habe hat die HD7770 etwa 25-40% mehr Performance als die GT640 (GDDR3).
Rockstar85
Admiral
- Registriert
- Sep. 2004
- Beiträge
- 8.807
Selbst eine GDDR5 Gt640 welche dann ja entweder TI heisst oder GTS645 wird Preislich weit über AMD landen, denn GDDR5 ist teurer als DDR3. Die derzeitigen Low end Produkte von NV erinnern mich leider an die FX5200 und 5500, wo die 5500 langsamer war.. Mal schaun wielange der Durchblick da unten bleibt..
Dann sollen sie einen Cut machen wie AMD und sagen Unterhalb der GTX660 gibts nur alte 40nm Hardware, denn eine GTX550TI ist derzeit im Vergleich zur 640 die bessere Wahl
Dann sollen sie einen Cut machen wie AMD und sagen Unterhalb der GTX660 gibts nur alte 40nm Hardware, denn eine GTX550TI ist derzeit im Vergleich zur 640 die bessere Wahl
GermanGamer545
Ensign
- Registriert
- Feb. 2012
- Beiträge
- 172
Gegen meine 550ti hat das Teil keine Chance^^
Aber ich bekomm ja eh bald ne 7950 also können die Hater ihre Kommentare gleich stecken lassen.
Aber ich bekomm ja eh bald ne 7950 also können die Hater ihre Kommentare gleich stecken lassen.
TheRaven666
Lieutenant
- Registriert
- Feb. 2011
- Beiträge
- 878
Hardware_Hoshi schrieb:--> Natürlich müssten sie dafür die Unter-/Mittelklasse ein wenig zurückstellen... das macht momentan einfach Sinn! Deshalb haben wir noch keine GT640-GTX660.
Das macht eigentlich keinen Sinn, denn in der unter-/Mittelklasse wird wesentlich mehr Asche gemacht als mit nem Flagship-Modell.
Rockstar85
Admiral
- Registriert
- Sep. 2004
- Beiträge
- 8.807
Ich sag ja: Möchtegern Experten.. Leute habter es noch nicht gecheckt? AMD und NV machen nur Geld im Bereich bis 150€, eher noch darunter.. Es dürfte NV massig Kohle kosten also die Mittelklasse unangetastet zu lassen. Eine GTX680 macht vllt 4% des Gesamtumsatzes aus, OEMs wollen günstige GPUs also alles was im Bereich der Hd7770 ist, maximal bis zur 7850.. Und da hat NV Absolut NICHTS zu bieten
Ähnliche Themen
- Gesperrt
- Antworten
- 4
- Aufrufe
- 498
- Antworten
- 3
- Aufrufe
- 756
- Artikel
- Antworten
- 15
- Aufrufe
- 2.745
- Antworten
- 28
- Aufrufe
- 2.809
- Antworten
- 222
- Aufrufe
- 33.355