News GT300: 3 Mrd. Transistoren und bis zu 6 GB GDDR5?

Jaja und ich glaub an den Osterhasen... mal ehrlich wie wollen die bei so einem Monster das mit der Energieversorgung regeln. Das Nvidia dicke Teile bauen kann ist klar, aber damit macht man kein Geld, sondern mit rentabler Massenfertigung.
Selbst wenn die Daten stimmen, die ich für totalen Mumpitz halte wird das ein Monster!

Außerdem wie wollen die gegen total günstig Herstellbare ATi Karten ankämpfen. Nvidia hat seit der G80er Reihe keine komplette reihe mit Low Middle und Highend mehr vorgestellt.
 
Na irgendwie wirds schon machbar sein, ansonsten gibts demnächst ein kostenloses 1000 Watt-Netzteil mit dazu... ;)
 
@Kartoffel200
Ich sehe da kein Problem.
AMD hat die Transistoren verdoppelt und der Verbrauch ist durch den Shrink kaum gestiegen. Nvidia verdoppelt jetzt die Transistoren und auf einmal soll das Ding das doppelte verbraten?
 
Wenn nvidia wirklich soviel Speicher verbauen sollte dann nur aus 2 Gründen.
Ka wie oft ich das schon gesagt habe aber nochmal zum mitschreiben. Bei SLI(TRI-Quad nicht vergessen), CF verdoppelt sich die Rechenleistung nicht der Vram ergo 6GB Vram sind da mit SGSSAA ruck zuck voll...

Die 3GB Versionen sind also vorallem SLI Editions, wie schon hier mit der alten Garde und 1,8-2GB: https://www.computerbase.de/forum/t...en-mit-mehr-als-1gb-vram.562654/#post-5754908

Aber egal, bei ATi ist es buh pfui, bei nvidia ist Party angesagt,
Was blubberst du da schon wieder? Gugg mal hier https://www.computerbase.de/forum/t...ximaler-performance-watt.629455/#post-6550327
Und was genau ist an einer HD 5870 2GB Pfui? HD 4800 sind Pfui aber HD 5800? Ja ok Eyefinity mit den 100€ Adaptern von Apple:evillol: etc. aber sonst passt das Gesamtpaket...



Das ist immer ein fataler Irrglaube, mit dem hier allzu oft rumgepoltert wird. Bedenke, dass die Gewinnmarge bei High End Produkten bedeutend höher ist. Ist der Markt der Mainstream und Lowend Produkte grösser und lukrativer? Definitiv! Aber bei weitem nicht um den Faktor 50.
Stört mich auch immer wieder. High End besonders Enthusiast Bereich hat eine sehr hohe Gewinnmarge man denke nur an Intel Extreme CPUs oder SLI oder CF Systeme. Die Hersteller buhlen nicht ohne Grund um Kunden...

Wenn nun die neue NVIDA eine Mischung aus Mittelklasse CPU und einer high end GPU ist , was wird aus Intel? Meines wissens fummelt Intel auch an CPU Einheiten rum die Grafikelemente implementieren. Ein Krieg der Hybridlösungen in den nächsten Jahren?
Genau so schauts aus, Fermi ist eine volle Breitseite Richtung Intel CPUs und vorallem Larrabee. Noch 1-2 Architekturen und Intel wird von Nvidia extrem unter Druck gesetzt. Außer Intel schafft es bis dahin selber eine brauchbare GPU zu entwickeln...

AMD wusste schon warum sie ATI gekauft haben -> The Future is Fusion (CGPU)


MfG Kasmo
 
Zuletzt bearbeitet:
Kasmopaya schrieb:
Genau so schauts aus, Fermi ist eine volle Breitseite Richtung Intel CPUs und vorallem Larrabee. Noch 1-2 Architekturen und Intel wird von Nvidia extrem unter Druck gesetzt. Außer Intel schafft es bis dahin selber eine brauchbare GPU zu entwickeln...

AMD wusste schon warum sie ATI gekauft haben -> The Future is Fusion (CGPU)


MfG Kasmo

So siehts aus! Check ;-)
 
hey was glaubt ihr wie schnell so ein GTX 360 werden wird?

dass sie schneller als die HD 5870 ist ist klar aber schafft sie 30-40% mehr

was denkt ihr?
 
Ist das so klar? Noch hat keiner Benchmarks gesehen... und ob man sich immer auf Theorien verlassen sollte? ;)
 
Puh, was für ein Chip. Bei denen gibts zumindest wirklich krasse Unterschiede zwischen den Generationen. Bei ATI sind es ja nicht immer so große Sprünge ;)

Gruß
 
Kasmopaya schrieb:
Ka wie oft ich das schon gesagt habe aber nochmal zum mitschreiben. Bei SLI(TRI-Quad nicht vergessen), CF verdoppelt sich die Rechenleistung nicht der Vram ergo 6GB Vram sind da mit SGSSAA ruck zuck voll...

o

wieso braucht man bei mehr rechenleistung mehr Vram. Sollen schnellere Karten etwas mehr verbrauchen?

6gb, also 3gb pro karte sollen schnell vollgehen? langsam kann man glauben,dass du auf drogen bist^^

gruß
 
Kasmopaya schrieb:
CF verdoppelt sich die Rechenleistung nicht der Vram ergo 6GB Vram sind da mit SGSSAA ruck zuck voll...

Du redest Müll. Wie lange willst du das mit deiner V-Ram Affinität noch durchziehen?
Das ist echt lächerlich. V-Ram Fanboy.
Es wird keine 3GB oder 6Gb Karten für den retailer geben.
Das dürfte, wenn man sich etwas mit den News beschäftigt, jedem klar sein.
Soviel V-Ram zu verbauen ist unnötig und nicht wirtschaftlich. Höchstens für CGPU oder ähnliches.
Anscheinend glauben immernoch Leute, man könnte die Karten einfach so erwerben und dann zocken.
Der normalo GT300 wird mit den selben Specs kommen, aber ganz klar beschnitten/nicht mit diesen Features, da otto Normalo das nicht brauchen kann.
1GB bis 2GB wird auch da Standard sein.
 
Zuletzt bearbeitet:
junx, die verbauen ECC damit sollte nun jedem die zweifel genommen werden, das diese GFX zum Zocken ausgelegt ist. ECC Ram fidneste auf Servern nicht im Desktopbereich.

Fassen wir nochmal zusammen damit es auch die letzten Boys hier schecken!

1. GGPU zur Unterstützung von Recheneinheiten
2. Interfaces für Fortran, JAVA, C++
3. ECC RAM
Somit finden wir diese in speziellen Einsatzzwecken wie S&D, Raumfahrt oder sonst wo!

Was willste mit ner Server Karte? Genau! NICHTS
1-2 quartale Später kommt eine für den Desktop User aber da hat bereits ATI den 6XXX am statr ;-)
 
Die Karten kommen ja laut neusten infos erst im März.Damit hat Amd/Ati aber schon ein ordentliches polster.BIs dahin sollte der refresh der 5800 schon drausen sein.:)
 
grischa16 schrieb:
hey was glaubt ihr wie schnell so ein GTX 360 werden wird?

dass sie schneller als die HD 5870 ist ist klar aber schafft sie 30-40% mehr

was denkt ihr?

was redest du für nen quatsch?
dir is klar, dass eine GTX360 (welche evtl nie erscheint, da noch nichts über das namensschema bekannt ist) schneller als eine HD5870 sein wird?
Dir ist schon klar, dass die HD5870 einer evtuellen GTX380 in sachen single precision TFlops davonrennt? siehe hier: http://www.heise.de/newsticker/GTC-...der-naechsten-GPU-Generation--/meldung/146158
Bei gleichem Takt wie die Tesla C1060 müsste die theoretische Spitzenleistung (FMA) bei 2 Teraflop/s (SP) und 630 GFlop/s (DP) liegen, gegenüber 933 GFlop/s (SP) und 75 GFlop/s (DP) der C1060 und 2,7 Teraflop/s (SP) sowie 544 GFlops/s (DP) bei AMDs Radeon HD5870.

PS: für spiele laufen die shader MIT SICHERHEIT nicht auf double precision!
 
Das mit der Textstelle "Reactor" fand ich Lustig:D
Haben wir nicht genug Atommüll jetzt auch noch Grakas:lol:
Endlagerung für Grafikkarten,spaß beiseite hoffentlich hat Nvidia gute Arbeit geleistet damit sich Nvidia/Ati wieder zu Grund und Boden Stampfen vom Preis her ich sehs schon HD5870/GT3xx 200 Euro ^^
 
Natürlich ist der kommende GT300, wenn er den überhaupt so heißen wird, stark auf GPGPU ausgelegt und soll die Konkurrenz alla Intel in Schacht halten.

Aber das heißt eben doch noch lange nicht das er nicht auch für 3D-Anwendungen geeignet ist !
Was ist den der GT200 ?
Er ist ebenfalls für GPGPU entwickelt worden und trotzdem macht er einen hervorragenden Eindruck in Sachen 3D-Leistung und der Stromhunger ist für die Leistung angenehm niedrig.

Der kommende Chip von Nvidia kann eben alles viel besser als der GT200 und vorallem deutlich schneller.
Das wird sich auch in der 3D-Leistung widerspiegeln. Da bin ich mir ganz sicher. :D
 
QX9770-Freak

# Beiträge: 100
# Beiträge pro Tag: 93,20

wenn man bedenkt, dass du keine 24 stunden hier bist... und das in einem faden RESPEKT! dir ist langweiliger als mir.

mensch da geht noch mehr! aber erst in ein paar stunden. ich mach die biege. n8@all

@Topic

ich war mal auf ein paar anderen pages, aber scheinbar juckt das kaum jemanden bezüglich der dummykarte.
 

Ähnliche Themen

Zurück
Oben