News Offiziell: „Fermi“ a.k.a. GT300

Status
Für weitere Antworten geschlossen.
Hardware_Hoshi schrieb:
Eine Grafikkarte für 170€? Das ist fast wie ein Auto, das neu nur 5000€ kostet. Ja, es fährt, aber hat keinerlei Sicherheit oder Schutzmechanismen. Ich hoffe du bekommst das nicht in den falschen Hals.

Sorry, aber das ist für mich der schwachsinnigste Vergleich seit langem... :freak:
 
FortissimoIV schrieb:
Na, da muss ich doch mal kurz einhaken - ATi ewiger Zweiter ist völliger Schmarrn. Das sind sie nur seit GeForce 8800 und das auch seit HD4k nur sehr bedingt. ;)

Viele scheinen hier völlig zu vergessen, wie das Kräfteverhältnis bei Radeon 9700 vs. GeForce 4 / GeForce FX war bzw das Kräfteverhältnis bei Radeon X1950 XTX vs. GeForce 7950 irgendwas.


Sicher. :D Wo sowas endet, hat man bei OpenGL bzw 3dfx Glide gesehen.

Glide war seinerzeit allem überlegen, aber 3dFX hatte betriebswirtschaftlich falsch gewirtschaftet und ist deshalt Pleite gegangen. Bei AMD befürchte ich das zurzeit auch, weil sie seit wieviel Quartalen schon keinen Gewinn gemacht haben? Beschäftige dich mal damit und du bekommst sicher das gleiche Grausen wie ich.

mediamaxx schrieb:
Bitte ich bin Techniker, erzähl mir sowas nicht. Bedenkt man wo diese Karten produziert werden usw. sind 170.- Euro ne Menge Geld. Eine etwas bessere Spannungsversorgung (inkl. Spulen etc.) macht unterm Strich 8.- bis 15.- EUR mehr Materialaufwand. Das erklärt also nicht die ehemaligen Preise von 450-600 EUR für middle-High-End Karten.

Vergleiche die alten Karten mit denen der neueren Generation. Die alten sind schwerer und solider verarbeitet. Da ist noch Metall drin - Versparrungen etc - kein Plastikschrott wie heute. Die Spulen sind nur ein Beispiel um es zu verdeutlichen. Stell dir vor von diesen bis zu 15€ werden viele Maßnahmen ergriffen. Es werden billige Materialien verbaut um Preisgünstiger anbieten zu können. Das fängt bei Schrauben an und geht bis zum Lüfter. Bemerkenswert ist, dass die Dinger bei um die 100°C nicht anfangen zu schmelzen *scherz.

mediamaxx schrieb:
Nein, AMD/ATI war nicht immer ewiger Zweiter. AMD wahr jahrelang führend mit ihren Athlon (gegen Pentium3 und die ersten Pentium 4) und Athlon64 (gegen Pentium 4/5 (775) Prozessoren, die Radeon 9700er und X1800er/1900er Karten der NV Generation teiweise deutlich überlegen. Die neuen HD5000er sind momentan allen Nvidia Karten überlegen, also ist auch hier ATI wieder führend.

Sich gegen eine alte Technologie zu messen zeugt ja so viel von Überlegenheit :freak:
Ich sagte nicht dass auch AMD bzw. ATI keine Lichtblicke gehabt hat, aber zu welchem Preis? Die Athlons waren Hitze pur. Wenn der Kühler ausgefallen ist, haben sie dir Löcher in Gehäuse geätzt während Intel dafür schon viel vorher Schutzmechanismen eingebaut hatte, dafür aber etwas teurer verkauft hat. In diesem Stil zieht sich die gesamte Produktpalette beider Anbieter durch.

Die ATIs der 9700/9800 und x1800/x1900 waren gut ja, aber sonst kam nichts vergleichbares mit der Konkurrenz. Die Leistungskrone hat man immer nur mit erheblichen Einbußen bekommen - siehe 4870x2 - Hitze / Lautstärke und vom Strom brauchen wir nicht reden. Das meinte ich damit!

Sie können ihr Heil nur im Preis suchen, was sie auf Dauer immer auf Platz zwei katapultieren wird. Ihre einzige Chance ist, wenn die Konkurrenz schwächelt oder sie wirklich mal den Glückstreffer erwischt haben.
 
Entweder hab ich es überlesen oder es wurde hier bis jetzt schlicht nicht geschriebn aber der Chip ist nen einizger Fake! Wurde schon bei vielen Hardwareseiten geschriebn.....

Die Bohrungen auf der Karte sind völlig Deplatziert und auch die GPU ist eine von 4oo ...nämlich das siebte exemplar, viel mehr lauffähige haben sie nicht aus dem Wafer bekommen...ich finde das sollte schon noch als Update rein.....
Hier mal nen Link von den Gamestar.....:

http://www.gamestar.de/hardware/news/grafikkarten/1959395/nvidia.html
 
@Hardware_Hoshi: Die Athlons(XP/64) damals waren wirklich nicht schlecht, hatte selber weclhe bei mir und anderen verbaut. Das Problem ist dann eher gewesen, dass sich AMD auf seinem Erfolg ausgeruht hat. Jede Erfolgsgeschichte hat nunmal ein Ende. So sind sie dann bei der nächsten Generation doch ziemlich ins Hintertreffen geraten. Hoffe doch sehr, dass sie wenigstens 2010 Intel halbwegs Paroli bieten können. Über die finanziellen Mittel sowie Manpower die beiden Unternehmen zur Verfügung stehen, brauchen wir uns glaub ich nicht unterhalten. Da ist Intel einfach besser aufgestellt, obgleich in der Vergangenheit die Marktführerschaft mit unlauteren Mitteln "erkauft" wurde.
 
Hardware_Hoshi schrieb:
Die Athlons waren Hitze pur. Wenn der Kühler ausgefallen ist, haben sie dir Löcher in Gehäuse geätzt während Intel dafür schon viel vorher Schutzmechanismen eingebaut hatte, dafür aber etwas teurer verkauft hat.

Da bist du aber sehr weit in der Zeit zurück gegangen^^, der Athlon64 hat Kreise um den P4 gedreht und das sowohl von der Geschwindigkeit als auch von der Temp. ... - zur Zeit ist Intel schneller, aber nicht umbedingt kühler.

Bei den Grafikkarten ist es auch nicht anders - mal ist der eine und mal der andere vorne.
Ein Vergleich von "alten" Grafikkarten mit neuen sagt leider nichts über die Innovations Fähigkeiten einer Firma aus - das muss warten bis auch NV den G300 fertig hat.
 
@Hoshi
Du bist nicht objektiv.
Die Grafikkarten früher waren rund 75-100 Grad unter Last warm, eine 6800 ULtra oder 7800 GTX? Reine Hitzemonster. Die Lüfter nicht besser als heute, sondern viel schlecher (wer erinnert sich noch an die Referenz-NV-Staubsauger an den 5000erFX/6800er Katen?) was redest du eigentlich die ganze Zeit? Was für ein Metall? weißt du überhaupt wovon du redest? Aus was für einem Material bestand denn laut deiner Aufassung das Gehäuse einer FX oder 6800er/7000er etc. pp. NV-Karte? Platin etwa?

Die Athlons waren gut, Hitze pur war der nicht mehr zu kühlende Heizhofen Intel P4 560, ich habe noch einen davon zuhause... das Ding überhitzte unter Last, egal was für ein Kühler drauf war.
Die ATI 9700er (Jahr 2002) bis X1900er (Jahr 2006) waren technisch führend. Die 3000er wieder gut mit dabei. Die ATI 4000er sind gleichauf und die 5000er wieder führend. Im Notebooksektor kann NV ATI nicht paroli bieten.

Sorry, entweder bist du ein NV Aktieninhaber oder ein unverbesserlicher Fan. Technisch hast du leider keine Ahnung.
 
Zuletzt bearbeitet:
super602 schrieb:
Entweder hab ich es überlesen oder es wurde hier bis jetzt schlicht nicht geschriebn aber der Chip ist nen einizger Fake! [...]

Naja, der Chip ist wohl kein Fake, wenn man heise glaubt, lediglich die Karte.
 
Naja an sich hab das vielleicht etwas falsch Formuliert aber, wenn die da nur ne Atrappe hinstellen und von 400 chips grade mal 15 glaub ich brauchbar waren...na gute Nacht...und da wollen die in einem bis zwei Monaten die Karte verfügbar anbieten? Das ist so relistisch wie nen Flug zum Mars mit 6 Leuten.....:rolleyes:

Mal ganz ehrlich ich hab selbst ne NVidia aber das ja wohl mal bischen schwach...meines erachtens haben die guten, Ati/Amd ganz schön unterschätz....
 
Also so wie ich das sehe hat Hardware_Hoshi ein problem damit das ATI zur zeit die beste Karte hat.
Was da für Argumente kommen Athlon 64 heiser als P4 das war über jahre der Konkurent da loht sich kein Kommentar. Anscheinend kommt er nicht damit klar das Nvidia nicht in die gänge kommt.
Wenns noch so lange dauert wies zur zeit aussieht haben die ein echtes problem.
Denn ATI schläft nicht soviel ist sicher
http://s8.directupload.net/images/090928/hrwgplhv.jpg:p

@Affenkopp
Wenns der Reporter nicht gemerkt hätte wüsste es ja keiner.
http://www.bit-tech.net/news/hardware/2009/10/03/fermi-card-on-stage-wasn-t-real/1
 
Zuletzt bearbeitet:
super602 schrieb:
Entweder hab ich es überlesen oder es wurde hier bis jetzt schlicht nicht geschriebn aber der Chip ist nen einizger Fake! Wurde schon bei vielen Hardwareseiten geschriebn.....

Zwar die Karte und nicht der Chip, wurde aber schon zig mal gepostet hier ;)

Zur leidlichen AMD - Intel Diskussion. Über AMD Hitzemonster zu lästern und den P4 zu vergessen ist... unüberlegt. Aber stimmt schon, war bei AMD zu Sockel A Athlon Zeiten (non XP, 64) schon so, vor allem bei 1400er... der hatte glaub 74W Verlustleistung was damals gewaltig war. Die P4s waren dann halt aber keinen deut besser bzw. noch schlechter.

Und dass AMD sich zu sehr ausgeruht hat halte ich für schlichtweg falsch. AMD ist nunmal ein deutlich kleineres Unternehmen als Intel, und sie haben mit dem Athlon 64 eine wirklich tolle Architektur auf den Markt gebracht. Komischer weise hat sich das kaum auf die Marktanteile ausgewirkt, jetzt haben wir ja die Gewissheit wieso (Media Markt, Dell... uswusw...). Das Intel nach dem katastrophalen Netburst eine Wunderarchitektur wie den Core herauszaubert damit hat aber AMD nicht unbedingt rechnen können.
 
selberbauer schrieb:
@hardware_hoshi
geh zu deiner nvidia sekte und hör auf diese diskussion zu behindern

Welche Diskussion, ich sehe hier nur Fanboys, die aufeinander einbashen (herrliches Denglisch) - sogar auf mich, aber damit kann ich leben. Hier wird ohne Inhalt aufgrund von Spekulation Gift und Galle gespuckt, da werde ich doch selbst auch ins Hornissennest schlagen dürfen :evillol:

Ich gehöre zu keiner Sekte und bestimmt nicht zu Nvidia. Wer mich in dieses Lager stecken will sollte wissen, dass meine ASUS 5870 schon seit September bestellt ist, aber vor Mitte Oktober wegen der grausigen Verfügbarkeit wohl nicht geliefert werden kann.

Zur Wiederholung: Es stört mich außerordentlich, wie im Vorfeld seitens AMD/ATI versprochen wurde wieviel Power sie angeblich mit der 5800er-Serie hätten. Letztens noch Benchmarks von ihnen gesehen, in denen sie die GTX295 überrunden.
Jetzt kommen die Fakten und ich bin maßlos enttäuscht wie viele andere auch. Statt der GTX295 kämpft man mit der GTX285. Nur mit Crossfire schlägt man die alte Generation. Ergo: Wer bereits eine GTX285/ GTX295 / HD4870x2 / HD4850x2 besitzt wird nicht unbedingt aufrüsten. Das Argument mit dem geringeren Stromverbrauch ist keine 200-300€ Neuinvestition wert - rechnet doch einmal aus, wie lange man die neue Karte benutzten müsste um es wieder rauszuholen.

Mich wundert die Diskussion um Stromverbrauch schon seit längerem. Letztens noch habe ich einmal darüber nachgedacht. Damals bei der 8800 Ultra bzw. GTX hatten sich alle Lager über den horrenden Stormverbrauch von ~150-180W beschwert - heute ist das bei allen neuen Karten Standard. Die neue 5870 verbraucht laut Angaben 188W (Nvidia wird wohl auch in dem Umfeld landen).
Von den Dual-GPU-Versionen will auch keiner sprechen, hier knackt man wohl in dieser Generation noch die 300W-Mauer (2x188W = 376W auf MAX), es sei denn man verzichtet auf Leistung, Takt oder auf was auch immer. Das wird im grünen Lager nicht anders sein. Wo ist hier bitte die Berechtigung der neuen Generation(en). Sehe ich das falsch oder denke ich nur in anderen Maßstäben, ich weiß es nicht.

Da die Grünen hier noch nichts vorgelegt haben, müssen wir warten - und wir warten alle ungeduldig. Interessiert uns aber ernsthaft ob da ein Fake war oder nicht? Wir wollen alle neue Karten in unseren Rechnern haben, oder etwa nicht? Besser gestern als morgen sogar! Nein, wir diskutieren über 1000 Posts über Fakten, die wir weder haben noch wissen können.

Spekulation nennt sich das. Spekuliert mit mir oder gegen mich, das bleibt euch überlassen :p
 
unLead schrieb:
... Aber es ist weit verbreitet, das ein Fan mit einem Fanatist verwechselt wird...
bezogen auf das Wort Fan ohne Boy: Es ist keine Verwechslung, sondern eine bewusste rhetorische Übertreibung um dem Fan klar zu machen, dass er nicht logisch entscheidet - mehr nicht. Und im Sinne der Aufklärung sollten wir unsere Triebe nicht einfahc nur hin nehmen, sondern unser Handeln und unsere Entcheidungen sehr wohl hinterfragen um am Ende vielleicht nicht objektiv, aber objektiver zu wählen. ;)

Zu Fanboy: Ich hab nicht gelesen, was in der Wikipedia aktuell gerade dazu drin steht und es interessiert mich auch wenig, aber "Boy" bezeichnet unter fühlenden Menschen jemanden, der "unerwachsen" ist und in Fanboy steht es eben dafür, dass dieser Fan anders als ein erwachsen wirkender Fan, sich benimmt wie ein kleiner Junge - sich also beispielsweise extrem rumzankt ohne echte Argumente zu haben, was ihn tatschlich dem Fanatist in der Situation sehr ähnlich macht.
 
Zuletzt bearbeitet:
Motkachler schrieb:
@mediamaxx
Wenns nur um die Optimierung ginge könnte ich das noch verstehen wenn NV dafür zahlt. Aber wenns darum geht nachteile zu schaffen in Games für den Konkurenten siehts anders aus. Und das passier leider.

Zitat:
Additionally, the in-game AA option was removed when ATI cards are detected

http://blogs.amd.com/play/2009/09/1...to-know-and-why-you-should-care/#comment-1630
Und ich sag's nochmal:
Hört endlich auf als Beleg für eure Behauptungen irgendwelche Foren-Comments, Blogs und andere unglaubwürdige Stellen als Quelle anzugeben.
Wenn ihr was handfestes habt, haut's raus ... wenn nicht, lasst es bleiben.
Man kann sonst wirklich stundenlang über Gerüchte diskutieren ... nur ist das nicht zielführend.

Auch die Behauptung TWIMTBP würde Nachteile für Konkurrenten schaffen ist soweit ich weiß bislang ohne Beleg. Falls da jemand etwas handfestes hat, nur her damit ... das dürfte jeden hier interessieren. Aber solange das nicht der Fall ist, hört auf Gerüchte als Fakten darzustellen.

super602 schrieb:
Entweder hab ich es überlesen oder es wurde hier bis jetzt schlicht nicht geschriebn aber der Chip ist nen einizger Fake! Wurde schon bei vielen Hardwareseiten geschriebn.....
Das wurde hier bereits tausende mal geschrieben, und es wurde auch bereits tausend mal geschrieben, daß solche "Fakes" üblich sind ... bei NVidia sowie bei ATI.
 
Fakt ist leider:
It's a FAAAKE!! no... ITS REAAAL!!!!!
daran helfen keine kosmetische Aussagen sowie Beschwichtigungen u. Beschönigungen.
Für mich ist das leider Machart übelster Sorte, im RL nennt man sowas, u. a. das Verbreiten von Halbwahrheiten um Illusionen zu suggerieren:
Lüge u. net Marketing.
Nvidia ist damit (mit dieser Illusionisten Darstellung) genauso glaubwürdig wie Uri Geller u. Co.

Zumindest wars halt ne gute Fakiershow. ha ha ha

Naja, 2010 hat ja auch noch nen Weihnachten,
wenn nix dazwischen kommt.
 
Zuletzt bearbeitet:
agent.x: Die HD5850 hält die GTX285 in Schach.
.....
Wäre auch verwunderlich, wenn eine neue Generation langesamer wäre, wie die vorhergehende. Die beiden Karten als direkte Konkurenten gegenüberzustellen, halte ich persönlich für verwerflich - beides andere Generation etc. Die Benchmarks zeigen mir nur, wo die Karten aktuell aufgestellt sind und nix anderes. Wenn er denn mal da ist (G300) - vorrausgesetzt es gibt eine Consumerkarte :D - dann könnte man beide Karten vergleichen.
Lustig wie man sich an diesem sogenannten Fake aufgeilen kann. Prototype bleibt was es ist. Eine Machbarkeitsstudie die das spätere Produkt präsentiert, was aber nicht heisst, dass es später genauso ausssieht bzw auch so funktioniert - siehe Automessen etc. Das NV mit ihrer Informationspolitik ins Fettnäpfchen getreten ist, bestreitet keiner. Aber sind wir mal ehrlich. Was will der potentielle Kunde lieber sehen ? Ein ES mit 1000 Kabel um ein neuen Chip oder ein schön verpacktes Produkt ?

super602

Entweder hab ich es überlesen oder es wurde hier bis jetzt schlicht nicht geschriebn aber der Chip ist nen einizger Fake! Wurde schon bei vielen Hardwareseiten geschriebn.....
Nochmal : Nicht der Chip, sonderen deren Platine+Anbauten - siehe oben

Affenkopp

Ich kann mir schwer vorstellen, dass sie nur eine Atrappe so stollz in die Kameras halten...
Ja kaum zu glauben aber leider so - siehe oben :)

Übrigend: Der Thread heisst "Offiziell: „Fermi“ a.k.a. GT300 (Update)"
Der GT300 wird wohl nich gegen eine ATI antreten, sondern der G300 aber verwechseln wohl einige immer wieder. Hier gehts drum, was der neue Chip kann / könnte etc und nicht darum, was hat Hinz und Kunz vor 6 Jahren gegessen und wer hat wem ins Essen gefurzt. Naja Hauptsache wir haben alle mal irgendwas aber eigentlich nix dazugeblubbert. Bleibt beim Thema oder lasst es.
 
Zuletzt bearbeitet:
@Affenkopp
Ja wenn man weis um was es da geht kann man nur lachen.
Ein geforcestes AA braucht wesentlich mehr Leistung, da es auf einer Bruteforce-methodik basiert, ein AA, welches im Spiel aktiviert wurde, kann dadurch, dass alle Informationen zu verfügung stehen algebraisch arbeiten. Also hat man mit geforcetem AA einen klaren Nachteil im Spiel und in Benchmarks.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben