Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News GT300: 3 Mrd. Transistoren und bis zu 6 GB GDDR5?
- Ersteller Volker
- Erstellt am
- Zur News: GT300: 3 Mrd. Transistoren und bis zu 6 GB GDDR5?
- Registriert
- Feb. 2009
- Beiträge
- 679
Die sollen mal endlich die Notebook-GPUs erneuern, da wird immer noch auf G92-Ableger gesetzt...
Nöö
die neusten Mobile-Grafikchips basieren auf GT200, beherrschen DX 10.1 und sind in 40nm gefertigt.
M
Mr.Kaijudo
Gast
Das ist das Ende von Larabee!
Einhörnchen
Rear Admiral
- Registriert
- März 2007
- Beiträge
- 5.154
Naja, das ist dann wohl doch ein bisschen viel und würde selbst mich überraschen.-WATC- schrieb:Könnte meine erste nVidea werden dafür muss die Karte aber min. 50 bis 100% schneller werden als die 5870, dazu besonders im Leerlauf (IDLE) gleich auf sein bzw. etwas darüber !
yurij
Lt. Commander
- Registriert
- Jan. 2008
- Beiträge
- 1.056
GDDR5 erscheint plausibel, es ist zeit.
384bit SI erscheint auch plausibel, ist bei einem high-end chip mit GDDR5 mehr als ausreichend. zudem können kleinere ableger dann auf 256bit abgespeckt werden.
1.5GB RAM resultieren aus dem "krummen" speicherinterface. 1GB ist nicht möglich und 768MB würden sich bei high-end nicht mehr verkauffen können. da die angepeilten preise vermuttlich auch solide ausfallen werden, wäre der aufpreis für 1,5GB VRAM kein beinbruch. zudem werden die 500MB mehr VRAM dafür sorgen, dass die karte bei hohen auflösungen und qualitätseinstellungen nicht einbricht.
3GB ist zur zeit eher nur marketing, aber warum nicht, es wird sicherlich auch zahlende kunden dafür geben.
6GB hört sich unrealistisch an, für spieler ist das auch. aber es gibt professionelle einsatzgebiete wie CAD, GPGU computing und insbesondere volumenvisualisierung. 6GB wird man nur in Quadros sehen. firmen, die das für volumenvisualisierung brauchen zahlen vier bis fünfstellige beträge ohne zu zucken.
shaderverdopplung erscheint irgendwie auch logisch.
also für die aktuellen gerüchte muss man schon kein insider sein und auch keine glaskugel besitzten und das ungefähr mit logischen folgerungen abzuschötzen.
384bit SI erscheint auch plausibel, ist bei einem high-end chip mit GDDR5 mehr als ausreichend. zudem können kleinere ableger dann auf 256bit abgespeckt werden.
1.5GB RAM resultieren aus dem "krummen" speicherinterface. 1GB ist nicht möglich und 768MB würden sich bei high-end nicht mehr verkauffen können. da die angepeilten preise vermuttlich auch solide ausfallen werden, wäre der aufpreis für 1,5GB VRAM kein beinbruch. zudem werden die 500MB mehr VRAM dafür sorgen, dass die karte bei hohen auflösungen und qualitätseinstellungen nicht einbricht.
3GB ist zur zeit eher nur marketing, aber warum nicht, es wird sicherlich auch zahlende kunden dafür geben.
6GB hört sich unrealistisch an, für spieler ist das auch. aber es gibt professionelle einsatzgebiete wie CAD, GPGU computing und insbesondere volumenvisualisierung. 6GB wird man nur in Quadros sehen. firmen, die das für volumenvisualisierung brauchen zahlen vier bis fünfstellige beträge ohne zu zucken.
shaderverdopplung erscheint irgendwie auch logisch.
also für die aktuellen gerüchte muss man schon kein insider sein und auch keine glaskugel besitzten und das ungefähr mit logischen folgerungen abzuschötzen.
Zuletzt bearbeitet:
mapel110
Lieutenant
- Registriert
- März 2003
- Beiträge
- 990
Intel hat noch massig andere Probleme als die bloße Performance. Aber sie haben genug Geld, um auch so ein Projekt langfristig zu etablieren. Ist irgendwie ähnlich der Xbox und Microsoft. ^^Mr.Kaijudo schrieb:Das ist das Ende von Larabee!
maxpayne80
Commander
- Registriert
- Nov. 2006
- Beiträge
- 2.339
Kozack schrieb:der gt300 wird mein sli system aus 2 gtx285 ablösen^^
und wie man sieht hat nvidia die nase mal wieder gaaaanz weit vor ati
Ein hoch auf die Spekulationen.
Wie man an deinem Post unschwer erkennt hat NVidia das Ziel mit den gezielten Leaks schon erreicht.
- Registriert
- Feb. 2009
- Beiträge
- 679
@LuXon: Naja, aber nicht die High-End-Varianten...
Was bringt mir ne GT 240M Mit DX 10.1?
MfG M.R.
mit dx10.1? nix
aber 40nm macht den chip sparsamer
und aufgrund der GT200 herkunft ist der chip schneller
also hat eine höhere effizienz.
Und was bringt dir einen High-End-Chip im Schlepptop? Dass man immer schön die Finger warm behält wenn man zoggt?
Für die meisten reicht hier eine gt9600m (whatever)
Und für die Hersteller lohnt es sich gar nicht. Ich streue mal ein Gerücht, dass der High-End markt von Desktop 100mal grösser ist als der der Laptops^^
united3000
Lt. Junior Grade
- Registriert
- Jan. 2009
- Beiträge
- 362
Schinzie schrieb:Beinahe die hälfte,sorry^^
Hab mich aber auch in der Hisicht vertan, habe nämlich die TDP's verglichen
Hört auf zu labern
der Enegieverbrauch ist für highend scheissegal mir zumindest... und diese ganz scheiss umwelt sache ebnfalls wenn man sich ein wenig mit der thematik beschäftigt merkt man schnell das vieles einfach nur behauptungen sind.
Wer eine sparsame graka will --> viele mainboards haben welche.
wer lesitung will sollte auf den stromverbrauch scheissen.
Siehr bei bugatti und ferrari nicht anders aus... oder habt ihr jemals einen diesel ferrari oder eco ferrari gesehen lol das ich nicht lache was für stümper
der Enegieverbrauch ist für highend scheissegal mir zumindest... und diese ganz scheiss umwelt sache ebnfalls wenn man sich ein wenig mit der thematik beschäftigt merkt man schnell das vieles einfach nur behauptungen sind.
Wer eine sparsame graka will --> viele mainboards haben welche.
wer lesitung will sollte auf den stromverbrauch scheissen.
Siehr bei bugatti und ferrari nicht anders aus... oder habt ihr jemals einen diesel ferrari oder eco ferrari gesehen lol das ich nicht lache was für stümper
Raptor2063
Captain
- Registriert
- Apr. 2009
- Beiträge
- 3.241
@ mister79
wie schon geschrieben, reine Theorie meinerseits (undwollte auch mal ein wenig spekulieren)
dennoch halte ich es für möglich, nicht alles was Hersteller machen, macht 100% Sinn
außerdem könnte es eben durchaus sein das an der 5890 (sollte es sie es geben) viellecht noch das eine oder andere geändert wird - wie gesagt alles nur VERMUTUNG!
ich freue mich sowohl auf das was NV bringt, als auch was von ATI noch kommt bzw. wie sich die Preise entwickeln. Bei ATI bin ich nun leider von Eyefinity etwas entäuscht... aber egal wer meine nächste Karte liefert, ich werde ganz sicher nicht zu den ersten gehören die eine kaufen, lohnt sich NIE bei sowas (außer vielleicht fürs Ego)
wie schon geschrieben, reine Theorie meinerseits (undwollte auch mal ein wenig spekulieren)
dennoch halte ich es für möglich, nicht alles was Hersteller machen, macht 100% Sinn
außerdem könnte es eben durchaus sein das an der 5890 (sollte es sie es geben) viellecht noch das eine oder andere geändert wird - wie gesagt alles nur VERMUTUNG!
ich freue mich sowohl auf das was NV bringt, als auch was von ATI noch kommt bzw. wie sich die Preise entwickeln. Bei ATI bin ich nun leider von Eyefinity etwas entäuscht... aber egal wer meine nächste Karte liefert, ich werde ganz sicher nicht zu den ersten gehören die eine kaufen, lohnt sich NIE bei sowas (außer vielleicht fürs Ego)
- Registriert
- Feb. 2009
- Beiträge
- 679
@Raptor 2063
Apropos Hersteller.
Den Graka-Herstellern wurde doch erlaubt eigene Design's zu erstellen.
Oder täusche ich mich da?
Apropos Hersteller.
Den Graka-Herstellern wurde doch erlaubt eigene Design's zu erstellen.
Oder täusche ich mich da?
Zanza schrieb:Das ist als ob man einen Porsche haben will der sehr schnell ist aber nur 3l auf 100Kmh schluckt
Ich sag da nur:
http://www.youtube.com/watch?v=CLGygbCr3sg
Ist kein Porsche aber das hat was. ^^
Schluckt nicht mehr als 4 Liter und fährt bis zu 250km/h schnell.
Mister79
Banned
- Registriert
- Apr. 2008
- Beiträge
- 4.489
Tja Raptor, dann haben wir eins gemeinsam.
Ich werde auch nicht der erste sein und auch nicht der zweite. Warscheinlich wohl einer der letzten die eine kaufen und schön gucken wie sich die Karten entwickeln . Mal sehen, was Revision 2 oder 3 so bringt. Dann was die Alternativen bringen von den Herstellern. Kühler OC ja oder nein usw. Bis Games so verbreitet sind das ich DX 11 brauch, sind wir schon fast bei Rev 3 angekommen und der Preis ist dort, wo ich ihn sehen möchte. Im Keller.
Ich werde auch nicht der erste sein und auch nicht der zweite. Warscheinlich wohl einer der letzten die eine kaufen und schön gucken wie sich die Karten entwickeln . Mal sehen, was Revision 2 oder 3 so bringt. Dann was die Alternativen bringen von den Herstellern. Kühler OC ja oder nein usw. Bis Games so verbreitet sind das ich DX 11 brauch, sind wir schon fast bei Rev 3 angekommen und der Preis ist dort, wo ich ihn sehen möchte. Im Keller.
Ähnliche Themen
- Antworten
- 120
- Aufrufe
- 23.207