News GT300: 3 Mrd. Transistoren und bis zu 6 GB GDDR5?

Xedos99 schrieb:
Vor allem der Preis dürfte exorbitant hoch sein....:mad:

Remember.. Remember.. The HD2900

Von den Leistungsdaten her war die Karte der absolute Hammer.. In echt dann leider nicht mehr..

Ich warte gespannt auf die Leistungsdaten dieser Karten. Aber es würde mich wundern, wenn die an das Preis/Leistungs-Verhältnis von ATi rankämen.
 
Meiner Meinung nach hat AMD/ATI das bessere Angebot.
Wenn man sich schon alleine die Transistoren vor Augen hält, dann wird der Verbrauch sicher über 200W liegen was nicht akzeptabel ist.

Das ganze bestätigt nur was mir mein Distri schon vor 6 Tagen gesagt hat. Nvidia wird sich schwer tun für die Masse ein Attraktives Angebot zu schnüren.
Hoffen wir mal das sie dazu gelernt haben und die Ausbeute besser ist als am Anfang beim GT300 wo Partner wie Club3D und Konsorten gedroht haben Nvidia den Rücken zu kehren.
 
Ist doch klar was diese Gerücht erreichen soll.
Damit will nvidia potentielle Käufer der Ati HD 5000er Serie abhalten die Grakas sofort beim Erscheinen zu kaufen und stattdessen auf das eigene Produkt zu warten.
 
Das passende Netzteil habe ich bereits gefunden, der GF300er Reihe, wurde von nVidia noch nicht vorgestellt, da dieser noch die EU Kommission durchgehen muss.

Sieht richtig geil aus, sehe aber niergends das SLI Logo, denke da kommt die Einstein Technologie ins Spiel.

--->>> SIEHE LINK !!

mal schauen wie ATi drauf reagieren wird, ob die auch eigenes Netzteil rausbringen? :D
 
gstarr schrieb:
Das passende Netzteil habe ich bereits gefunden, der GF300er Reihe, wurde von nVidia noch nicht vorgestellt, da dieser noch die EU Kommission durchgehen muss.

Sieht richtig geil aus, sehe aber niergends das SLI Logo, denke da kommt die Einstein Technologie ins Spiel.

--->>> SIEHE LINK !!

mal schauen wie ATi drauf reagieren wird, ob die auch eigenes Netzteil rausbringen? :D

herrlich :D
demnächst werden grafikkarten eigene kraftwerke sein, stichwort wind-energie :D

vielleicht wirds ja ein perpetuum-mobile :D
 
@ cyrezz

Warum sollte man das nicht mit einem Vorgänger in den Vergleich setzen können?

Klar kann man Vergleichen, aber mit welchem Rückschluss ? Ist doch nun wirklich nichts neues, dass die aktuellen Mainstream/Performance Grafikkarten schneller & effizienter sind, als die Vorgänger- High-end- Genaration im grösseren Fertigungsverfahren! :rolleyes:
 
@In vino veritas
Nun, Garantie ist das ja nicht. Es ist ja nicht immer der gleiche Leistungszuwachs zu vermerken. Für Kaufentscheidungen ist das schon ausschlaggebend.
 
GPU specifications
This is the meat part you always want to read fist. So, here it how it goes:

* 3.0 billion transistors
* 40nm TSMC
* 384-bit memory interface
* 512 shader cores [renamed into CUDA Cores]
* 32 CUDA cores per Shader Cluster
* 1MB L1 cache memory [divided into 16KB Cache - Shared Memory]
* 768KB L2 unified cache memory
* Up to 6GB GDDR5 memory
* Half Speed IEEE 754 Double Precision

...

TSMC was in charge of manufacturing the three billion transistor mammoth, but it didn't stop there. Just like the G80 chip, nVidia GT300 packs six 64-bit memory controllers for a grand total of 384-bit, bringing back the odd memory capacity numbers. The memory controller is a GDDR5 native controller, which means it can take advantage of built-in ECC features inside the GDDR5 SDRAM memory and more importantly, GT300 can drive GDDR5 memory in the same manner as AMD can with its really good Radeon HD 5800 series. The additional two memory interfaces will have to wait until 28nm or 22nm full node shrinks, if we get to them with an essentially unchanged architecture. You can expect that the lower-end variants of GT300 architecture will pack less dense memory controller for more cost efficiency, especially on the memory side.

...

GPGPU is dead, cGPU lives!
Just like we reported earlier, GT300 changed the way how the GPU is functioning. If we compare it to the old GT200 architecture, comparisons are breathtaking. Fermi architecture operates at 512 Fused Multiply-Add [FMA] operations per clock in single precision mode, or 256 FMA per clock if you're doing double precision.
The interesting bit is the type of IEEE formats. In the past, nVidia supported IEEE 754-1985 floating point arithmetic, but with GT300, nVidia now supports the latest IEEE 754-2008 floating-point standard. Just like expected, GT300 chips will do all industry standards - allegedly with no tricks.

...

A GPU supports C++ natively?
Ferni architecture natively supports C [CUDA], C++, DirectCompute, DirectX 11, Fortran, OpenCL, OpenGL 3.1 and OpenGL 3.2. Now, you've read that correctly - Ferni comes with a support for native execution of C++. For the first time in history, a GPU can run C++ code with no major issues or performance penalties and when you add Fortran or C to that, it is easy to see that GPGPU-wise, nVidia did a huge job.

To implement ISA inside the GPU took a lot of bravery, and with GT200 project over and done with, the time came right to launch a chip that would be as flexible as developers wanted, yet affordable.

In a nutshell, this is just baseline information about what nVidia is going to introduce in the next couple of weeks. Without any doubt, we can see that nVidia reacted to Larrabee by introducing a part that is extremely efficient, natively support key industry standards and more importantly, doesn't cost an arm and a leg.
Quelle

Wenn das alles stimmt, ist das der beste Chip seit G80, wenn nicht gar Voodoo 1
 
Zuletzt bearbeitet:
einfach mal warten, deswegen passiert dann auch nix.
So gern man spekuliert, es bleiben meistens doch nur Spekulationen...


ich GLAUBE aber auch das der GT300 schneller sein wird als die 58er Serie von ATI, wahrscheinlich auch mehr Strom braucht und sehr sicher mehr kosten wird - wenns anders kommt (speziell die letzten beiden Punkte, freue ich mich und leg mir ne neue NV zu)

is doch praktisch wenn Rechner so viel Strom brauchen und diesen in Wärme wandeln, Heizung ausmachen und den Rechner heizen lassen, wenn man eh arbeitet ist das doch ein tolles "Abfallprodukt".
 
Zuletzt bearbeitet:
Angesichts dieser Gerüchte wäre wohl alles unter 50% Mehrleistung im Vergleich zum Cypress wohl eher eine mittlere Enttäuschung, wobei im bezug auf die Renderleistung wirklich wichtige Zahlen wie die Pixel- und Texelfüllrate (oder ROPs, TMUs und TAUs + Taktfrequenz) noch nichtmal bekannt sind.
Eines sollte man aber im Hunterkopf behalten: bei 50% mehr Transistoren und nach Gerüchten nur 20% höheren TDP (ca. 190 vs. ca. 220W) im Vergleich zum Cypress fällt die Taktfrequenz vielleicht nicht allso hoch aus und man sollte seine Erwartungen nicht übermäßig hochstecken.
 
Zanza schrieb:
Das ist als ob man einen Porsche haben will der sehr schnell ist aber nur 3l auf 100Kmh schluckt
Ein Porsche wird auch nicht geshrinkt, steht nicht im Wohnzimmer, wird nicht parallelisiert und unterliegt nicht der Qualität von Software, außer in der Motorsteuerung.

crYquZ schrieb:
also ich versteh die sache mit dem energieverbrauch nicht... ihr fahrt doch alle ein auto oder ? und euch kümmerts auch n dreck ;)
Mein nicht verhandenes Auto macht aber seinen Lärm und Dreck nicht im Wohnzimmer. Sinnloser Vergleich. Es geht um Abwärme und Lautstärke und manchen nebenbei noch um die Folgekosten bei der Stromabrechnung. Nicht darum geht es, die Umwelt mit einer Grafikkarte zu retten.

In vino veritas schrieb:
Ein realistischer & fairer Vergleich wäre HD 5850 vs. GeForce GTS 350!

Als man sich wagte zu formulieren, dass die HD4xxx Karten von AMD/ATi besser seien als die G80 Derivate hieß es, dass man das ja nicht vergleichen könne, weil die (G80) zu alt seien. Oder man sagte, der G80 sei trotz seines Alters noch so gut wie Karte "xyz".
Also was denn nun ;)
Vergleichen kann man doch eigentlich, was auf dem Markt ist und was ungefähr gleich viel kostet. Dann darf man sich noch darüber Gedanken machen, ob single oder multi GPU eine Rolle spielt.


Eventuell steht ja GT300 für den Stromverbrauch in Watt :eek:
 
Hmm da binn ich mal gespannt 6GB Speicher hoffentlich nicht wegen dem ineffzienten Speichermanagement, und wenn der Sovile Transistoren hatt oje troz der kleinen Struktur.

Interne Bezeichnung Reaktor hoffentlich benötigt man keinen solchen zum betreiben der Karte, binn schon sehr gespannt was wirklich bei raus kommt.
 
zwei Kommentare in aktuellen 5850 Reviews:

Kyle von Hardocp schreibt:

"If you are waiting for NVIDIA to jump out of the GPU closet with a 5800 killer and put the fear into you for making a 5800 series purchase for Halloween, we suggest paper dragons are not that scary. We feel as though it will be mid-to-late Q1’10 before we see anything pop out of NVIDIA’s sleeve besides its arm. We are seeing rumors of a Q4’09 soft launch of next-gen parts, but no hardware till next year and NVIDIA has given us no reason to believe otherwise...."

und Anandtech schreibt (zumindest indirekt bzgl. G300):

"Ultimately AMD is going to be spending at least the next few months in a very comfortable situation. ..."

DIe Karte kommt aber nicht mehr dieses Jahr.:)
 
@In vino veritas
Nun, Garantie ist das ja nicht. Es ist ja nicht immer der gleiche Leistungszuwachs zu vermerken. Für Kaufentscheidungen ist das schon ausschlaggebend.

Nein, aber die Regel. Auf jeden Fall kann man ATI keine Architekturbedingte Dominanz bescheinigen, nur weil die 40nm-HD 5850 schneller bzw. effizienter ist, als die 55nm-GTX 285. Denn der tatsächliche Gegenspieler zur HD5850 lautet (vermutlich) GTS 350. ;)

@ Zwirbelkatz

Als man sich wagte zu formulieren, dass die HD4xxx Karten von AMD/ATi besser seien als die G80 Derivate hieß es, dass man das ja nicht vergleichen könne, weil die (G80) zu alt seien. Oder man sagte, der G80 sei trotz seines Alters noch so gut wie Karte "xyz". Also was denn nun

Soll ich mich jetzt angesprochen fühlen? Wäre echt dufte von Dir, wenn du mich nicht in irgendwelche Schubladen stecken würdest!
 
Zuletzt bearbeitet:
In vino veritas schrieb:
Das ATI die Führungsspitze z.Zt. inne hat, wird nicht von langer Dauer sein. Ich hab mir dass schon gedacht, das NVIDIA ein Ass im Ärmel hat.
Die Frage ist, zu welchem Preis? Wenn ich dafür 500€ ausgeben muss, erschließt sich mir den Vorteil von max. 50% Mehrleistung nicht.

RainerST schrieb:
Die GTX395 wird ca. 400 - 450 E kosten und die GTX380 um die 300 - 350 E
LOL. Ich bezweifle sehr stark, dass Nvidia mit ihrer Top-Single-Karte auch nur annäherend an die Preise von ATI/AMD rankommen wird.
 
Taktisch gesehen ist das halt ein guter Schachzug. Mit dem veröffentlich von Details werden sicher der ein oder andere potentielle Käufer, der eine 5870 kaufen würde, jetzt noch warten.
 
Einhörnchen schrieb:
Quelle

Wenn das alles stimmt, ist das der beste Chip seit G80, wenn nicht gar Voodoo 1
das liest sich ausgesprochen lecker. brightsideofnews ist für mich allerdings so glaubwürdig wie fudzilla. sollten die specs stimmen, was ich jetzt mal annehme, verschleiern beider zumindest den release zeitpunkt. ich bin mal gespannt wie effizient die karten werden, wenn hardware-funktionen wie tesselation in software "emuliert" werden müssen.

Schinzie schrieb:
es wird einen paperlaunch, ähnlich der radeon geben.
ähnlich wie beim cypress? schenk man den ganzen spekulationen glauben, dann werden von der vorstellung bis zur verfügbarkeit monate ins land ziehen. bestenfalls einer und im worst case derer vier.
 
Zuletzt bearbeitet:
Auf jeden Fall kann man ATI keine Architekturbedingte Dominanz bescheinigen, nur weil die 40nm-HD 5850 schneller bzw. effizienter ist, als die 55nm-GTX 285.

Da gebe ich dir Recht. Dennoch hat der Shrink von 65 auf 55nm bei der GTX260 hinsichtlich der Stromersparnis enttäuscht. Obendrein hat man sich bei vielen Exemplaren Spulenpfeifen eingehandelt, da ein abgespecktes PCB wohl offenbar Teil der Stromersparnis war. Leider ging das zu Lasten der Qualität.
 

Ähnliche Themen

Zurück
Oben