News „Mehrzahl“ von Fermi-Grafikkarten in Q2/2010

Status
Für weitere Antworten geschlossen.
MysWars schrieb:
Du hast genauso pauschalisiert wie ich
Nein, nicht wie du. Ich habe ganz klar zwischen Last und Idle differenziert.

MysWars schrieb:
Bitte komm mir nicht mit Testen in denen mit einem Pentium 4 getestet wird.
Ja, so kann man natürlich auch versuchen sich rausreden. :rolleyes: Jede GPU musste mit der CPU klar kommen. Ausserdem spielt das hier keine Rolle. Xbitlabs hat die GPU einzeln vermessen, ohne den Rest des Systems.

MysWars schrieb:
Also eigentlich interessiert es mich zwar immernoch nicht warum die Karten einen so hohen Leistungsverbrauch im Idle haben, aber z.B. Sp3cial Us3r sagt, dass es nicht am Powerplay liegt: Siehe #115
Wie kommst du darauf, dass ich von PowerPlay spreche? Sp3cial Us3rs Aussage steht doch nicht im Gegensatz zu meiner. Warum der Speicher nicht heruntergetaktet wurde, war gar nicht das Thema. Fakt ist aber, dass er nicht heruntergetaktet wurde.

MysWars schrieb:
Bis zu deiner genannten "Zukunft" dauert es wahrscheinlich noch etwas länger
Dir ist schon bewusst, dass Clarkdale bereits auf dem Markt ist? Und Optimus von nVidia ist dir ein Begriff? Llano wird auch nicht mehr allzu lange auf sich warten. Auf der ISSCC wurde der Chip kürzlich erst vorgestellt. In 2H sollte er dann in Massenproduktion gehen und Ende diesen / Anfang nächsten Jahres erscheinen. Ich denke, hier wird sich viel bewegen in den kommenden Monaten.

MysWars schrieb:
Wenn du dich mal in Foren mit etwas mehr "Stromsparfreaks" aufhälst wirst du merken, dass wie gesagt die meisten User die Wert auf Stromverbrauch legen, fast nur der Idleverbrauch interessiert.
Dagegen gibt es ja auch nichts einzuwenden. Ich achte selbst sehr stark auf die Leistungsaufnahme unter Idle bzw im Wenig-Last-Betrieb. Nur, Idle ist für die Energieeffizienz eines Chips halt kein geeigneter Maszstab. Schau dir mal an, wie entsprechende Anwendungen, zB specpower, Energie korrekterweise messen. Da ist Idle vernachlässigbar.

MysWars schrieb:
Wie du auch bei vielen Quellen nachlesen kannst, befindet sich der Durchschnittliche PC großteils unausgelastet im Idle. Einige Seiten sprachen sogar von 80% der Zeit.
Darum geht es doch gar nicht. Wenn es dir nur darum geht, wie viel eine Hardwarekomponente an Strom braucht, wenn sie nichts tut, dann lass mich dir zwei Fragen stellen. Wieso sollte dann jemand eine HD 4870 kaufen? Nichts tun kann auch eine HD 4350. Und was hast du von einer diskreten Karte, die dann 20 W braucht, wenn es auch eine IGP tut, die dafür nur 2 W braucht?
 
Zuletzt bearbeitet:
Idle Betrieb ist mir sowieso sch.... egal!
Warum?
Weil ich unten mit meinem Laptop surfe. Der braucht (was weiss ich) 45 Watt oder so und reicht zum Surfen, etc. mehr als aus.
Wenn ich zocke (oben im Hobbyraum...) dann ist mir der Verbrauch genauso egal wie bei meiner EXC520. Oder schaut irgend jemand bei Motorrädern auf den Verbrauch? Wenn einem ein Hobby das nicht Wert ist, dann kann man es auch lassen!

Soviel zum Idle!
 
HappyMutant schrieb:
Weiterhin sehe ich in deinem Zitat nichts, was dich persönlich angreift (es sei denn du wärst Charlie), sondern eine Kritik an dem Artikel von Semiaccurate. Und zwar begründete Kritik. Die mag dir nicht schmecken und sie mag je nach persönlicher Überzeugung auch falsch sein. Aber wo du da verhöhnt und beschimpft wirst, sehe ich nicht.

vielleicht ja, aber man sollte mal bedenken, dass wahrscheinlich mehr Meldungen über den Fermi von Charlie eingetreten sind, als "News" von CB die über die Fermi verbreitet wurden.
Ich würde auch gerne mal die "begründete Kritik" sehen ;)
Ergänzung ()

@KLEMSI:
Pass auf, sonst fällst du noch über den Tellerand :eek:
 
Zuletzt bearbeitet:
cob schrieb:
ATI und Nvidia brauchen wiedermal so einen Grafikracher wie Crysis.


Warum? Die haben es noch nicht einmal geschafft die o.g. Spiele sauber und flüssig, selbst mit Mid-Range-GraKa`s in allen Details und hoher Auflösung bis heute darzustellen.
 
Warum werden eigentlich dann fudzilla Newsmeldungen "verbreitet" welche ihr sogar selber als "Gerüchteküche" abstempelt und welche bekanntlich Nvidia zugeneigt ist ;)

@Evader:
Naja, ich denke mal sie haben etwas sorge dafür, dass das als Kitik abwürgen gewertet wird.
 
ja ich würd mich auch über n Grafikkartekracher freuen, er muss ja nicht zwingend auf der aktuellen hardware laufen sondern zeigen was denn alles möglich ist. Wenn es dann doch läuft wär natürlich 1a :lol:

DX11, Tesselation, Global illumination und Raytracing wären dann natürlich ein muss :eek:
 
gruffi schrieb:
Nein, nicht wie du. Ich habe ganz klar zwischen Last und Idle differenziert.
> "Und pauschal hatte nVidia eben nicht den geringeren Stromverbrauch."
Der Satz kommt genau so von dir, keine Angaben ob du von Idle oder Last redest. ;)

gruffi schrieb:
Wie kommst du darauf, dass ich von PowerPlay spreche? Sp3cial Us3rs Aussage steht doch nicht im Gegensatz zu meiner. Warum der Speicher nicht heruntergetaktet wurde, war gar nicht das Thema. Fakt ist aber, dass er nicht heruntergetaktet wurde.
Powerplay bedeutet doch das heruntertackten der Karte so weit ich mich nicht irre? Einer von euch beiden muss also unrecht haben.

gruffi schrieb:
Dir ist schon bewusst, dass Clarkdale bereits auf dem Markt ist? Und Optimus von nVidia ist dir ein Begriff? Llano wird auch nicht mehr allzu lange auf sich warten. Auf der ISSCC wurde der Chip kürzlich erst vorgestellt. In 2H sollte er dann in Massenproduktion gehen und Ende diesen / Anfang nächsten Jahres erscheinen. Ich denke, hier wird sich viel bewegen in den kommenden Monaten.
Ja, genauso wie mir bewusst ist, dass seit 2 Jahren eine angeblich vergleichbare Lösung von NVidia am Markt ist, die sich aber nicht sonderlich lange dort gehalten hat.

gruffi schrieb:
Dagegen gibt es ja auch nichts einzuwenden. Ich achte selbst sehr stark auf die Leistungsaufnahme unter Idle bzw im Wenig-Last-Betrieb. Nur, Idle ist für die Energieeffizienz eines Chips halt kein geeigneter Maszstab. Schau dir mal an, wie entsprechende Anwendungen, zB specpower, Energie korrekterweise messen. Da ist Idle vernachlässigbar.
Natürlich, je mehr der PC mit rechnen beschäftigt ist, desto mehr interessiert die Energieeffizienz der Leistung bei hohem Verbrauch. Mein PC ist allerdings kein Server und befindet sich oft im Idle.

gruffi schrieb:
Darum geht es doch gar nicht. Wenn es dir nur darum geht, wie viel eine Hardwarekomponente an Strom braucht, wenn sie nichts tut, dann lass mich dir zwei Fragen stellen. Wieso sollte dann jemand eine HD 4870 kaufen? Nichts tun kann auch eine HD 4350. Und was hast du von einer diskreten Karte, die dann 20 W braucht, wenn es auch eine IGP tut, die dafür nur 2 W braucht?
Naja gehen wir mal von einem etwas anderen Beispiel aus. Nämlich dass wir zwei von der Leistung her vergleichbare Karten haben. Die erste ist im Idleverbrauch besser, die zweite im Lastverbrauch. Die zweite hat dann zwar die bessere "Energieeffizienz" (ich gehe mal auch davon aus, dass man diese nur unter Benutzung gut Vergleichen kann), würde allerdings für mich von den Stromkosten her teurer werden, weswegen ich zu ersteren greifen würde.

KLEMSI schrieb:
Idle Betrieb ist mir sowieso sch.... egal!
Deine Meinung interessiert mich ungefähr genausoviel. ;)
 
Zuletzt bearbeitet:
Gruffi schrieb:
Nein, nicht wie du. Ich habe ganz klar zwischen Last und Idle differenziert.

Ich denke du solltest mal von deinem "hohen " Ross herunterkommen und anfangen vernünftig zu diskutieren, anstatt irgendwo rumzurühren. Wenn man deinen Post verfolgt, kommt man ehrlich gesagt nicht mehr mit, was schade ist.
Der Idle Verbrauch war bei den HD4k deutlich schlechter und der Idle Verbrauch ist in der Regel wichtiger, da zumindest bei den meisten Leuten der PC länger im idle als unter Last läuft. Ende.

Ich würde es auch wünschen, wenn mal von interessanteren Themen berichtet wird, als nur Marketingeblubber von Nvidia.
Sollte jetzt aber keine Kritik sein, sondern eher eine Anregung.
Mit dem Zeigefinger auf Volker zu zeigen und anzuprangen Affinitäten würden ihn reiten finde ich etwas dreißt, deswegen kann ich die Reaktion von happy Mutant doch etwas verstehen.:rolleyes:
Bei den ganzen Meldungen, die sich immer wiederholen, frag ich mich, wie man da CB verurteilen kann. Oder wie ist die Reaktion darauf, wenn seit fast einem halben Jahr nur Marketinggeblubber von nvidia kommt? Eher nicht Nvidia-positiv.

derschlambi schrieb:
Damit ist die Sache und mein Engagement bei CB für mich erstmal erledigt.

Und wieder stirbt ein angeblich nicht verstandener User den Märtyrertod. Ich find das echt zum schießen hier.:D
 
Zuletzt bearbeitet:
gruffi schrieb:
Lediglich unter Idle waren GeForces etwas besser.
Episch. Die rund 30 Watt einer GTX285 sind nur "etwas besser" als die knapp 60 Watt einer HD4890? :rolleyes:

EDIT
Too late, Schaffe89 war schneller.
 
@myswars
warum du dann lesen und kommentieren?

und achte beim zitieren darauf, wen du zitierst und ändere nicht nachträglich die namen! denn das meiste in deinem Post habe ich nicht gesagt...
 
Zuletzt bearbeitet von einem Moderator: (Multiple Satzendzeichen (!!!, ???) entfernt. Bitte Regeln beachten!)
Bei der Namenswahl von Nvidia kommt mir als Italiener immer wieder das schmunzeln. :D

Ein hoch auf Fermi. Ich hoffe die Nvidia Leute sind nicht zu Fermi! :evillol:
 
Um weitere Eskalationen zu vermeiden, habe ich den (von mir durchaus auch initiierten) off-topic-Teil versenkt. Letztendlich bringt es nichts, darüber nun weiter hier im Thread zu diskutieren, bzw. die geforderte Sachlichkeit kann so nicht entstehen. Die Beiträge sind hier: https://www.computerbase.de/forum/threads/703497/ und PN steht euch wie üblich offen.
 
Ich finde es nur noch erbärmlich wie sich CB zum Werkzeug macht. Da muss man sich schon Gedanken zur geistigen Integrität der Newschreiber bzw. Qualität der Redaktion machen.
Ich muss inzwischen bei Fermi an DN4E denken. Ich finde, dass Nvidia den Bogen überspannt hat und CB so ein Verhalten entsprechend honorieren sollte.
"When it's done". Anything else, and we mean anything else is someone's speculation. There is no date. We don't know any date (DN4E) sollte man meinen. Ich würde als CB nichts mehr bringen bis nicht das Gegenteil durch Nvidia handfest bewiesen wurde.
 
Zuletzt bearbeitet:
Nvidia kann nur die ATI 5800 Serie mit der neuen Fermi-Familie in den Schatten stellen. Alles andere wäre für Nv ein totales Desaster.
 
Beruhigt euch mal Leute, es geht doch nur um eine Grafikkarte (die evtl. nie erscheint) :freaky:

Btw, wer ist eigentlich dieser Charlie? Mir sagt der Kerl überhaupt nichts...
 
bigot schrieb:
Btw, wer ist eigentlich dieser Charlie? Mir sagt der Kerl überhaupt nichts...

Meiner Meinung nach muss man Charlie auch nicht kennen.

Fuer NvidiaFans ist er der "Erzfeind", da dieser (unter anderem) seit April 2009 sagt, das der Fermi sich deutlich verspaeten wird. Man hat ihn deshalb als Nvidiahasser und Luegner bezeichnet.
 
Tolle Werbung. Weder klare Daten zum Release der entscheidenden Karten zu haben, noch einen Anhaltspunkt zur Leistung. :rolleyes:

Oder verstehe ich den Begriff Werbung falsch?
 
Angaben zum Zeitpunkt des Release sind auch Werbung. ;)
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben