ATi HD5800 und nVidia GTX400 (DX11 Gerüchteküche)

Status
Für weitere Antworten geschlossen.
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

@ Romsky

Manuell untertakten ist nicht AMD-Standard :rolleyes: Ergo schreibst du Mist.
Soviel zu Thema "technisch bedingt" nicht anders möglich.
Das habe ich nicht geschrieben, ich habe nicht gesagt, es sei nicht möglich :rolleyes: Lies, was da steht und lege mir keine Worte in den Mund.
Ich diskutiere hier nicht weiter offtopic. Auf jedenfall ist mir deine penedrante, profilierende und besserwisserische Art (obwohl du oft daneben liegst) schon zig mal aufgefallen.
Typischer Fall von "Ich habe keine Argumente und werde persönlich". Ohne mich. Zeige mir auf, wo ich daneben liege und besserwisserisch bin - offenbar kannst du es nicht. Also höre auf es zu behaupten!

EDIT
und sagt das es technisch nicht anders möglich ist, ich aber gleichzeitig genau mit solchen Settings hier sitze und alles geht. Und dann fragt er noch das ich ich Beispiele nennen soll wo er Bullshit erzählt hat
Noch mal: Meine Aussage war "400/1.000 MHz @ 1,06V bei Multi-Mon sind normal und werden sich sicherlich nicht ändern, da technisch bedingt" (technisch bedingt, da so von AMD im BIOS hinterlegt und das wohl nicht ohne Grund) und nicht "es ist technisch nicht möglich" :rolleyes: Lies was da steht! :mad:
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

@Romsky: y33h@ drückt sich oft ziemlich "extrem" aus. als ich hier angefangen hab, war er aber augenscheinlich ein "ati-fanboy". im grunde ist er aber seinen werten bei grafikkarten treu geblieben. er hat schon bei seiner x1950xt die bildquali über alles gestellt. man muss halt wissen, wie seine beiträge zu lesen sind. ich denke nicht, dass er eine marke bevorzugt. wenn die hd6k nvidia in sachen bildquali abhängt, dann ist nv wieder für ihn gestorben^^
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Hmm.... ja ok, mag sein. Dennoch lesen sich seine Beiträge alles andere als Objektiv. Man hat oft den Eindruck er denkt er weiß alles und alle anderen sind "doof". Und so ein Getue kann ich absolut nicht ausstehen. Aber egal, er ist nun auf meiner Ignore-Liste, dann brauche ich mich nicht mehr über seine geistigen Ergüsse ärgern.

Finde ich ehrlich gesagt lächerlich das so einer auch noch offiziell bei PCGH publiziert. Obwohl, PCGH ist auch alles andere als Bodenständig und seriös.

@Topic
Ich vertrete nachwievor die Meinung das der Fermi ein Top Produkt werden wird, und vieles revolutionieren wird. Aber nicht im Gaming-Sektor. Der Markt der Gamer ist verglichen mit dem professionellen Bereich sowieso ein Witz. Der Fermi ist voll auf Computing getrimmt, Spieletechnisch wird er zumindest meiner Meinung nach gerade so aufschließen zu ATI, und selbst das wird fraglich.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

ich denke auch, dass der fermi seinen schwerpunkt im profibereich, vor allem in sachen gpgpu hat, allerdings glaube ich nicht, dass der spielesektor im vergleich dazu so gering ist. die masse machts einfach. auf der anderen seite muss man aber auch sagen, dass seit einführung der hd4k das preisniveau extrem gesunken ist und damit sicherlich auch die margen. von daher sind produkte wie die gt220/240 wohl sehr klug von nvidia gewählt. massentauglich und billig herzustellen. sowas hat imho zukunft. für highend finde ich den qualitätsverlust allerdings schade. ich muss sagen, mir waren die highendpreise eher zu gering als zu hoch, weil ich technische spielereien toll finde, und wenn die dann einzug in die mittel und unterklasse halten, hab ich auch was davon.^^ und wenn leute sowas fördern, in dem sie grafikkarten für 600 oder gar 1000 € (7800gtx 512) kaufen und sich dafür an einer karte erfreuen, von denen andere nur träumen können, dann ist mir das vollkommen recht^^
sollte nvidia den spieler-markt tatsächlich nur noch stiefmütterlich behandeln (und danach siehts ja tatsächlich aus), dann fände ich das sehr schade.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Der Markt der Gamer ist verglichen mit dem professionellen Bereich sowieso ein Witz. Der Fermi ist voll auf Computing getrimmt, Spieletechnisch wird er zumindest meiner Meinung nach gerade so aufschließen zu ATI, und selbst das wird fraglich.
Romsky ist offline Beitrag melden Antwort
Kann gut sein mal abwarten. Der Gamingmarkt ist ja heutzutage wirklich nur noch eine Prestige Sparte und bringt wenig Gewinn.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Ob das wenig Gewinn bringt, kommt sicherlich auf die Margen an. Besser isses natürlich wenn man ein solides Standbein bei OEM rechnern vorweisen kann, da wird das meiste Geld gemacht.
Nur werden auch teils flotte Karten in OEM rechnern verbaut, zumindest Stromsparende Varianten wie HD5750/5770 und da dürfte einiges zu Gewinnen sein.
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

oh übrigens...
weil wir es ja von GPGPU hatten:
http://www.semiaccurate.com/2009/12/16/oak-ridge-cans-nvidia-based-fermi-supercomputer/

das zum thema fermi für supercomputer... habe ich schon erwähnt, dass ich bereits auf jagaur - DEM oak ridge rechner (seit einiger zeit wieder der schnellste der welt) ein paar rechnungen laufen lassen konnte?
war auch so verdammt schnell, selbst mit ollen CPUs :D:love::D

wenn das stimmt, dass dieses projekt gecancelt wurde ist das imho eine news wert!
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Übrigends. Y33H@ ist objektiv. Er kritisiert nur sehr deutlich Dinge die so nicht gut sind oder nicht sein dürften. Da gibt es an und führ sich aber nichts zu meckern. Man muss seine Beiträge eben etwas mehr deuten als gleich wörtlich nehmen. =)
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

@ Schaffe89

THX! :)
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

@Statler_Waldorf

das ist toll ... die kippen den supercomputer wegen der energie effizienz ... geil ... wenn sie jetzt noch auf cpu supercomputer umsteigen von intel weis ich auch alles XDDD

ne mal im ernst ... wegen energie effizienz gekippt ... was für ein blödsinn soll das denn bitte sein? dafür hätten sie ja schon was antesten müssen oder finale daten vorliegen haben -.^

entweder gerücht, oder aus andern gründen gescheitert (finanzierung? schwerpunkt verlagerung bei den berechnungen?)
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Neo_Xsendra schrieb:
ne mal im ernst ... wegen energie effizienz gekippt ... was für ein blödsinn soll das denn bitte sein? dafür hätten sie ja schon was antesten müssen oder finale daten vorliegen haben -.^
Oder einfach die Vorgabe nicht im festgesetzten Zeitraum erfüllen können. Wenn sie in der Entwicklung soweit zurück liegen, dass der Kunde abspringt um nicht noch mehr Zeit zu verlieren? Wenn Nvidia nichts zum testen liefern kann muss ein solcher Kunde nicht bis in alle Ewigkeit warten.
Oder aber der Kunde ist Kompetent genug die technischen Schwierigkeiten realistisch einschätzen zu können.

Intel hat mit Larabee eigentlich auch nur zu lange gebraucht - 2 Jahre früher hätten die Leistungsdaten noch ausgereicht. Fermi wird vielleicht das Problem haben schon wenige Wochen nach Release mit den schon folgenden Radeons 6xx konkurrieren zu müssen. Im März/April ist die HD5xx Serie schon fast ein halbes Jahr auf dem Markt - da kann man fast schon nicht mehr von gleicher Generation sprechen.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

das ORNL (= Oak Ridge National Lab) hat sicher genügend Geld. Die haben einen festen Jahresetat von über einer Milliarde. Dazu kommen die Konjunkturhilfen, welche die Amis momentan bei sich auspacken...
daran liegt es sicher nicht.

Eine der problematischsten Dinge solcher Rechnerfarmen ist seit je her die Kühlung (und natürlich spielt hier die Energieeffizienz eine Rolle). Wenn Fermi die vorrausgesagten Spezifikationen nicht einhalten kann, müssten sie alles abändern. Was wieder Planungskosten und vor allem Zeit bedeuten würde. Vermutlich gehen sie auf nunmal sicher und warten auf ein Produkt welches das hält, was es verspricht.
Momentan sollten sie über 37.000 Istanbul (hexacore) Prozzis verbaut haben. Da sieht man von welcher Größenordnung wir hier sprechen. Ein 10% Unterschied beim Stromverbrauch macht ungeheuer viel aus.

Jedenfalls bin ich überzeugt davon, dass sie ihre Gründe haben - und das ist jedenfalls keine positive Werbung für NV!
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

richtig. die angabe des verbrauchs find ich schon etwas bedenklich, wobei auf anderer seite gemessen an ner 6-kern cpu, die ja nicht ansatzweise die rechenleistung aufweisen kann, hab ich so meine zweifel, ob das der tatsächliche grund ist.
bei 37.000 cpus gehe ich mal von einer ähnlichen zahl benötigter gpus aus. ati konnte bisher 800.000 gpus produzieren, von denen aber "nur" 300.000 vollwertige cypress waren. der fermi kam später und dürfte aufgrund seiner größe deutlich schlechtere yields aufweisen. der verdacht liegt nahe, dass nvidia nicht liefern kann. das würde dann auch gegen eine kurz bevorstehende markteinführung mit breiter verfügbarkeit sprechen. wobei, wenn 30.000 bestellte gpus plötzlich nicht abgenommen werden, das für die gamer ein vorteil wäre, da diese dann auf anderen wege in den markt gelagen ;)
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

@Lübke

genau das mein ich ... selbst wenn der fermi nicht so gut in sachen energie effizienz gewesen wäre wie erwartet, CPU's sind im vergleich zu GPU was energieeffizienz angeht ein schlechter witz ...

aber kann sein, das die verzögerung der grund ist ... "nicht einhalten der vertraglichen richtlinien" nennt sich das dann ...
ja~ da es ne interpretation von charlie ist, kann ich mir vorstellen das er die info bekommen hat und sich dann dachte "HA! Der Fermi muss zu schlecht gewesen sein!" (wie er ja sos chön fallen ließ, ist er ja eingeschnappt, weil NV nimmer mit ihm reden will ...w arum nur? XD )
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

CPU's sind im vergleich zu GPU was energieeffizienz angeht ein schlechter witz ...

das ist abhängig vom verwendungszweck. eine cpu arbeitet völlig anders. aber wenn man den einsatz von gpus erwägt, dann ist wohl mit der verwendung hochparallelisierter massenberechnungen zu rechnen, und dann wäre eine grafikkarte mit 300 watt tdp mit 512 shadern so schnell wie dutzende hexcore-cpus, die sicher pro cpu weit mehr als 65 watt pro stück brauchen und in der summe damit ein vielfaches an strom ziehn. in dem fall wäre der vorwand der energieeffiziens imho wohl ein vorgeschobener grund für die presse.
den wahren grund werden wir sicherlich nicht erfahren.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Das kann schon sein das Charlie da wieder was hinneininterpretiert.
Aber sicher steckt was dahinter das nicht grad gut ist für NV.
Hoffe nur das die Fermi Gamer Karten bald kommen würde den Preisen und der Verfügbarkeit gut tun.
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

ich tippe auf lieferprobleme bei nvidia. wir reden hier immerhin von zehntausenden von gpus. wenn man bei den yields mal die 2% wieder aufgreifen will, und für ati die 40 % für cypress (nur um mal zahlen zu haben) dann hätte nvidia, wenn sie denn gleichzeitig mit amd angefangen hätten zu produzieren (was man wohl auch ausschließen kann) bis heute ca 7.500 gpus erhalten (fläche des fermi ist ja deutlich größer als beim cypress, daher weniger exemplare je waver). da sind engineering samples und alles noch mit drin.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

hmmm die frage ist wie es da tatsächlich aussieht mit der ausbeute .... aber ja, wie gesagt vermute ich auch dass sie lieferfristen nicht einhalten können ... sehr schade. ich frag mcih wie stark sich das dank A3 stepping verbessert hat -.^

btw: waren die 2% nicht vom A1 Stepping?
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben