News Offiziell: „Fermi“ a.k.a. GT300

Status
Für weitere Antworten geschlossen.
@KAOZNAKE

Nice one, alles schön zusammengefasst genau so ist es:daumen:

Eyefinity hat man zwar nicht, aber wozu gibts Triplehead2GO?
Vergiss nicht das keine extrem teuren Adapter anfallen bei Tripple Head und die Monitore sind auch kompatibler, aber wahrscheinlich bastelt sich NV dann sowieso ein eigenes "Eyefintiy" mit guten Support. Habs ja gleich gesagt ATI und Enthusiast Features(zb. auch CFX) das passt einfach nicht zusammen...
http://ht4u.net/news/20979_weitere_einschraenkungen_bei_amds_eyefinity/
http://ht4u.net/news/20977_artikel-update_radeon_hd_5870__eyefinity/
Einer der wenigen Anbieter für solche Adapter in Deutschland ist Apple, allerdings hat die Sache ihren Preis: ca. 100 Euro müssen potentielle Käufer für einen solchen Adapter hinlegen. Bei dem Produkt von Apple kommen zusätzlich noch die Kosten für einen Mini-DisplayPort auf den normalen DisplayPort hinzu.

Aber gut das du Eyefintiy erwähnt hast, sonst währ ich jetzt gar nicht drauf gekommen und hätte es ganz vergessen :rolleyes:


Kasmo,hast du vielleicht das pcb abgesägt?^^
Ja ich gebs zu, sonst kommt wieder ein Schlaumeier hier auf die Idee und rechnet anhand der Bilder die Kartenlänge aus oder erkennt sonst was, was er noch nicht wissen darf. Das ist noch unter NDA! Top Secret! Noch dazu ist noch nix final, weil Fermi ja noch nicht produziert wird, der Chef muss das alles erst noch durchwinken. Daher der gefakte Erlkönig. Immerhin sind die grünen nicht so dumm wie Intel und halten(grinsend und voller Stolz)einen Wafer in die Kamera und versuchen später panikartig alle Bilder davon löschen zu lassen, nur weil noch keiner wissen sollte das Larrabee ein Monster wird.(das war ja so geil, wie blöd ist Intel eigentlich)

Naja alles Tarnung und Täuschung von dem her normal...

Ansonsten gibts nur 2 Möglichkeiten einer neuen Architektur Flop oder Top. Die letzte(G80) war top also eigentlich ist jetzt mal wieder ein Flop dran. :D und bei ATI steht ein Top an.

Aber die Benchmarks von den Herstellern selber waren doch schon immer sinnfrei, die haben immer irgend welche Balken gezeigt, warum sollte man solche Fake Balken haben wollen? Letztens mit Eyefintiy gesehen Crysis @8000*6000 mit 60FPS :cool_alt:

Glaub wir drehen uns wieder im Kreis, wo bleiben die Chinaböller Benches :lol:

MfG Kasmo
 
OMG, den ganzen Thread kann ich echt nicht lesen. Also auf die Gefahr von Wiederholungen hin: Wie schnell sollte der nächste Grafikchip sein?

Hier wird behauptet, in sechs Jahren seien die GPUs 570 mal so leistungsfähig wie heute. Sagen wir, das sind sieben Jahre nach dem GT200.

Also ist 570 = 1*(x^7) .
Also ist x = 570^(1/7). Das sind etwa 2,476.
Ist die Leistung eines GT200 gleich 1, so sollte ein Jahr später also ein 2,476 mal so leistungsfähiger Chip kommen, zwei Jahre später ein 6,1 mal leistungsfähigerer Chip, drei Jahre später ein ca. 15 mal so leistungsfähiger Chip usw. (x^1, x^2, x^3...).

Rein theoretisch natürlich, falls die von mir angenommene Beziehung stimmt. Ob das so wird?:king:
 
mediamaxx schrieb:
Was für ein Fake wollen die uns da verkaufen?
http://www.hardwareluxx.de/community/showpost.php?p=12991799&postcount=1770
Was soll das? haben die das nötig?

:rolleyes: wäre dir mehr geholfen, wenn sie nen bollerwagen voll mit zusammen gebastelter frankensteintechnik aus der engineering abteilung auf die bühne gefahren hätten? viel mehr wirds nämlich sicher nich nicht zu zeigen geben, ich bezweifle das es schon lauffähige finale karten gibt, also kann man auch nix dergleichen herzeigen. und die paar chips die man hat, wird man auch sicher nicht einfach so durch die gegend tragen, und beschädigung oder sogar diebstahl riskieren. wäre ja auch mehr als dämlich. so ein mock-up zu zeigen ist ganz normale vorgehensweise wenn man den kunden/der öffentlichkeit etwas präsentieren möchte.


die meisten haben immernoch nicht verstanden, das es sich hier nicht um die vorstellung der neuen grafikkarten gehandelt hat...das dauert noch ein paar monate.
 
Zuletzt bearbeitet:
Hallo zusammen,

@ Lübke

Also ich bezweifle, daß es Ende November schon soweit ist, daß Nvidia ihre Neue GPU auf den Markt wirft.

Wenn das wirklich so wäre, wäre auf dieser "Show" ganz sicher ein Exemplar in laufendem betrieb zu Sehen gewesen.

Ich denke, man sollte auch die Aussage des Nvidia-Fritzen beachten, der selbst von "wenigen Monaten, aber an einem Dienstag" sprach. "Monate" also in der Mehrzahl sogar.

Vor 2010 scheint es nichts mehr zu Werden, Nvidia hätte todsicher ein Exemplar vor diesem Publikum Laufen lassen, wenn es schon soweit wäre. Man muß sich nur mal vorstellen, wieviele Leute dann alleine schon Warten würden, wenn da etwas vernünftigeres als ein reiner Papier-Launch geboten worden wäre.

Und nichts anderes war dieser Veranstaltung für mich, eine regelrechte Absichts-Erklärung. Für mich ist nun definitv Fakt, daß Nvidia momentan nichts auf der Hand hat, um darzulegen, daß es dieses Jahr noch etwas wird mit ihrer GPU.
Und das sagt für mich ziemlich viel.

So long.....
 
Ein tag später ist der ganze pc wieder veraltet.....;) das geht sooo schnell^^
Ergänzung ()

@nevermore4ever in 6 jahren wird es dann bestimmt auch 10 faches sli geben und dann ist der pc tower so groß wie nen müllcontainer xD ( obwohl alles kleiner wird) :)
 
digitalangel18 schrieb:
:rolleyes: wäre dir mehr geholfen, wenn sie nen bollerwagen voll mit zusammen gebastelter frankensteintechnik aus der engineering abteilung auf die bühne gefahren hätten? viel mehr wirds nämlich sicher nich nicht zu zeigen geben, ich bezweifle das es schon lauffähige finale karten gibt, also kann man auch nix dergleichen herzeigen. und die paar chips die man hat, wird man auch sicher nicht einfach so durch die gegend tragen, und beschädigung oder sogar diebstahl riskieren. wäre ja auch mehr als dämlich. so ein mock-up zu zeigen ist ganz normale vorgehensweise wenn man den kunden/der öffentlichkeit etwas präsentieren möchte.


die meisten haben immernoch nicht verstanden, das es sich hier nicht um die vorstellung der neuen grafikkarten gehandelt hat...das dauert noch ein paar monate.
Fragt sich nur warum man etwas präsentiert das man noch gar nicht hat. Das riecht schwer nach verdummungspolitik. Um die Leute davon abzuhalten ins andre lager zu wechseln.
Seis Intel larrabee oder ATI 5 er Serie.
 
Zuletzt bearbeitet:
Ich hab jetzt nicht alle knapp 600 Threads gelesen... aber eins will ich hier mal einwerfen, ATIs 5870 hat ca.2,1 Millionen Transistoren, Nvidias G300 3 Mille. Okay, aber was ist mit der 5870X2? Theoretisch hat diese ja über 4 Millionen.

Ich weiß nicht genau wie das alles so abläuft und aufgebaut ist. Aber wenn ich das mal richtig gelesen habe sind prof. Programme zum berechnen von Molekühlen und sonst was für zeugs einfacher auf Multi-GPU zu patchen als GAMES.

Wer gut nun den besseren Weg? ATI mit kleinen GPUs im Verbund oder Nvidia mit Monster-Dies? Was könnte in der Forscherzukunft mehr bringen? Mich würde ja, an irgendeiner stelle, vllt auch keine ATI X3 oder sogar X4 wundern aus vllt 4x 5670 oder sowas..., als FirePro-karte....
 
Zuletzt bearbeitet:
Also ich bin stolzer Besitzer einer Powercolor 5870 erworben bei Alternate.
Die Karten existieren, wenn auch derzeit noch in homäopathischen Dosen.
Die Nvidia Karte kratzt mich bisher wenig ich brauche keine Karte die wissenschaftliche Berechnungen
mit doppelter Genauigkeit was weiß ich wie schnell berechnet.
Ich brauche jetzt ne Karte die mir Risen und Dragon Age usw. auf meinem 24 Zoll TFT mit möglichst maximaler
Qualität flüssig darstellt und das kann die Nvidia zumindest im Moment mal gar nicht.
Solange alle Spiele zu meinen Bedingungen gut laufen kann die Nvidia wegen mir schneller rechnen, als
ne Cray.
Aber wie sagt ein guter Freund von mir immer "Die Toten werden nach der Schlacht gezählt"
Also warten wir mal die ersten Benches ab.
Derweil freue ich mich mir meinem early adaptor Gemüt über meine neue Graka.
 
Zuletzt bearbeitet:
ch bezweifle das es schon lauffähige finale karten gibt, also kann man auch nix dergleichen herzeigen. und die paar chips die man hat, wird man auch sicher nicht einfach so durch die gegend tragen, und beschädigung oder sogar diebstahl riskieren.
Uhh da fällt mir der gestohlene Phenom I ein, mit 3Ghz oder?(den es ja dann auch nie gab!) Von THG? Ist der jemals wieder aufgetaucht?

Von dem her gelungene Vorstellung, nix geklaut worden(war ja nur Schrott vor ort) und die Die Fläche + kritischen Bauteile sind immer noch geheim.
Wer gut nun den besseren Weg? ATI mit kleinen GPUs im Verbund oder Nvidia mit Monster-Dies? Was könnte in der Forscherzukunft mehr bringen? Mich würde ja, an irgendeiner stelle, vllt auch keine ATI X3 oder sogar X4 wundern aus vllt 4x 5670 oder sowas..., als FirePro-karte....
Der beste Weg sind hochwertige Karten die im Bündel ohne Problem laufen, 24/7 hocheffizient und günstig: https://www.computerbase.de/forum/threads/programme-die-mit-der-gpu-rechnen.426771/#post-4303110
 
Zuletzt bearbeitet:
ich denke da wären 1 chip grakas ala nVidia besser, da es ja doch noch allehand multi gpu fehler gibt....
 
Zanza schrieb:
@Lübke

wenn so mir die Liste bei Geizhals sehe sind die neuen Karten bei ATI auch mangel da wird sicher noch paar wochen vergehen bis alle in guter menge vorhanden sind und dann wird es sicher soweit sein für denn neuen GT300

Weil auch der GT300 zu Beginn in unzähähligen Mengen verfügbar sein wird -.-
 
QX9770-Freak schrieb:
Ein tag später ist der ganze pc wieder veraltet.....;) das geht sooo schnell^^
Ergänzung ()

@nevermore4ever in 6 jahren wird es dann bestimmt auch 10 faches sli geben und dann ist der pc tower so groß wie nen müllcontainer xD ( obwohl alles kleiner wird) :)

Ich beziehe mich ja auch nur auf Behauptungen von nVidia und spekuliere da mal ein bisschen ins Blaue. Es stellt sich auch die Frage, was sie mit "leistungsfähig" meinen.:)
 
Motkachler schrieb:
Fragt sich nur warum man etwas präsentiert das man noch gar nicht hat. Das riecht schwer nach verdummungspolitik. Um die Leute davon abzuhalten ins andre lager zu wechseln.

nochmal: es wurde keine grafikkarte präsentiert (das kommt kurz vorm release) sondern die neue architektur. es steht nvidia doch frei dies zu tun. machen intel und amd zum beispiel andauernd. ich würde sogar sagen, die wären ziemlich doof wenn sie es zum jetzigen zeitpunkt nicht tun würden, denn sicher kann man auf diese art einige leute zum warten annimieren, und davon abhalten jetzt ne ATI zu kaufen. und das medienecho ist riesig, sieht man ja an diesem thread ;) mich wundert das übrigens ein bisschen. wenn details zu einer neuen cpu präsentiert werden, hat der thread vlt. 50 antworten...hier sind wir nach nichtmal 24h schon beim zehnfachen :freak::evillol:

von "verdummungspolitik" würde ich dann reden, wenn ein unhaltbarer releasetermin der karten genannt worden wäre. ist aber nicht so. es gibt ja garkeinen! da dichten sich nur diverse berichterstatter oder forenuser etwas zusammen. achja, wer ist eigentlich auf november gekommen?
 
Zuletzt bearbeitet:
Die 30 Seiten Comments haben sich wirklich gelohnt... viel zu Lachen, viele Infos und viel Müll. Für alle was dabei. Hab mich auch noch durch diverse Seiten wie Golem, Heise, Anandtech und Bittech gewühlt und würde zur Gamingleistung folgendes sagen:

Ziel jeder Folgegeneration ist (zumindest in letzter Zeit) eigentlich immer die Dual-Grafikkarte der Vorgängergeneration zu übertrumpfen. Bei NVidia ist das zwar die GTC295, die besteht aber nicht aus zwei mal der schnellsten NVidia GraKa sindern aus einer Mischkombination. Als untere Leistungsgrenze (als Ziel!) würde ich daher 2 mal GTX285 ansetzen. In den Specs und Aussagen zu der Fermi-Architektur mit den Ablegern Tessla, Quadro und GeForce sehe ich keine wesentlichen performenacesteigernden Maßnahmen pro Shadereinheit für die Gamingperfrmance, die nicht durch fehlende HW-Tasselation und Cacheverwaltung wieder egalisiert werden würden.

Daher hat NVidia (wenn auch sonst alles verdoppelt wurde) sich von 240 auf 512 Cores gesteigert und dürfte damit 2*GTX285 etwas überflügeln, vielleicht bis 25%. Damit würde man in den Bereich einer HD5870x2 (Hemlock) kommen so dass das muntere ATI/NVidia Spielchen fröhlich weitergehen kann.

Allerdings denke ich, dass NVidia mit der massic erweiterten C++ CUDA-Unterstützung noch ein Ass im Ärmel hat: Dadurch dass die meisten Spiele in C++ geschrieben werden und (zum grösten Teil) nur für verschiedene Plattformen kompiliert werden, wäre es doch möglich eine GrafikEngine nativ auf der Grafikkarte laufen zu lassen, so dass Shader ohne jeglichen Umweg über PCIe oder CPU an Shader weitergegeben werden könnten. Sicherlich würde das Ausführen der Engine selbst auch Shader verbrauchen, allerdings sollte sich das doch prima optimieren lassen. Was mein ihr?

Greeetz,
GHad
 
Ich hoffe nur das der g300 wirklich so viel leistung hat, wie ihn nvidia anpreist! Mir wäre eine Leistungssteigerung wie von der 8800 Ultra zu 280gtx zu wenig Performance gewinn. Da muss schon was großen und gutes bei rauskommen.
 
Der punkt ist wer sich jetzt eine ATI kaufen will soll es gern machen, das alles wird uns nicht weiter bringen, warten wir ab und stauen wenn es soweit ist.
 
@nevermore4ever

Das weiß ich doch, ich ja auch! ;):)
Ergänzung ()

@GHad

Klingt interessant, was du da so geschrieben hast! Habe ich noch garnet so im einzelnen drüber nachgedacht! :);)
 
QX9770-Freak schrieb:
ich denke da wären 1 chip grakas ala nVidia besser, da es ja doch noch allehand multi gpu fehler gibt....

Ich finds grade net, aber es gab mal ein Bild von einem PC in einem Forschungszentrum. Dort rechneten 4x 98GTX2 mit einer rechenleistung von 180 CPU-Cores... oder 4x180? Zumindest haben die sich dadurch einen großem aufwand und viel Platzt gespart. Strom natürlich auch.

Gibt es den noch mehr MGPU Probleme als Microruckler? Ich meine nicht in sachen GAMES sondern Forschung...
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben