News Finale Spezifikationen des R600 vorgestellt

pascaljackson schrieb:
Dieser Kühler besitzt eine „vapor chamber“, eine kleine Kammer in der eine Chemikalie dafür sorgt, dass sich die Wärme gleichmäßig über den gesamten Kühlkörper verteilt. Die längere OEM-Variante besitzt hingegen einen klassischen Kühlkörper nebst leisem Lüfter.

Oh...nice...bin schon gespannt darauf :D. Daher wird der Kühler der R600 auch Heatpipes haben. Ich hoffe, dass dies eine kostengünstige Variante ist und sich daher nicht auf den Preis der Karte bemerkbar macht.
 
Zuletzt bearbeitet:
Sind deine Werte in etwa richtig? Ich kenne mich mit Strompreisen usw. nicht aus und habe meinen PC(E6700,8800GTX) etwa 10h am tag laufen....kann ich da etwa mit deinen 50 cent rechnen bzw. bin ich, wenn ich statt der 50 cent 1 Euro annehme sicher dabei? (365€/Jahr)

Haut hin, ich bin von einem KW/h Preis von 0,20 € ausgegangen.

Aber 365 Tage * 10 Stunden ... da investierst du auf Dauer warscheinlich mehr in verschlissene Hardware ...

Mfg
 
was ich mich die ganze zeit frage, warum die keine ähnliche funktion in die grafikkarte einbauen sollten wie cool'n'quite, schließlich sollte amd doch genug zeit gehabt haben um derartiges zu integrieren. der release wurde ja fast ein halbes jahr verschoben, ausgehend von den ersten gerüchten, wenn ich nicht irren sollte.

das wäre doch eigentlich sehr vernünftig, zumal ich neulich in einem interview eines amd mitarbeiters bei heise las, wonach dies in künftigen generationen integriert werden soll. womöglich sprach er von der nun offiziell vorgestellten 600er generation.
gerade in bezug auf die gleichzeitige vorstellung des mobil chips, für welchen solcherlei features ja bei dem derzeitig sprekulierten spitzenverbracuh esenziel wären. also man muss nun abwarten und den evtl. zu erwartenden spitzenstromverbrauch in relation zur leistung und in verbindung zum idleverbrauch setzen. gerade der idle verbrauch in einer reinen 2d-umgebung könnte durch absenkung des kerntaktes- und gleichzeitiger spannungssenkung sehr gering sein. ich würde es mir zumindest mal so wünschen.

eventuell sollte man nicht vergessen, dass der verbrauch bisher nur reine spekulation ist. und evtl. aus den reihen nvidias zusätzlich angeheizt wird, welche selbst derzeit aus diesen spekulationen nur kapital schlagen können (und 400.000+ einheiten ist eine mengen umsatz), gelten ihre boldien derzeit paradoxerweise schon als ware stromsparwunder unter den "experten".

für mich zeigt der derzeitige kühler von der 600er erstmal nur, dass diese karte evtl. "extrem leise" gerade in workstations sein kann. ich gebe es ja zu: sehr abwegig, stehen diese doch oft nicht direkt am schreibtisch :-)

auch ist die länge der karte "NUR FÜR OEM 30CM" und nur für diese mit diesem ausmaß bestimmt!
also fertigrechner in großen rechnerverbänden, welche oft kein admin wirklich von innen zu sehen bekommt.
acer, dell, hp und andere stellen solche rechner in beachtlichen stückzahlen her.
die systembuilder-versionen unterscheiden sich oft maßgeblich von endkunden-versionen (schaut nur mal auf die vielen varianten eurer betriebssysteme). die "ENDKUNDEN VERSION IST NUR 24CM" lang. also ist diese karte dann in etwa so groß wie die heutige karten.
wo ist hier bitteschön der unterschied, um sich dermaßen aufzuregen?

grüße und nen schönen abend, franeklevy
 
Zuletzt bearbeitet:
ati prerelease pr ist so eine zweischneidige sache. zum einen anfängerfehler wie ausgerechnet ein bild der schreiend häasslichen oem-variante durchsickern zu lassen und nciht der retailversion ... oder dies zumindest mit dem veröffentlichen eines bildes der retailversion zu kontern. auf der anderen seite will ich jetzt langsam endlich wissen, was die neue karte wirklich kann. insofern funzt das marketing ja doch halbwegs :p
 
Boah... Hab mir mal die mühe gemacht und ALLE posts gelesen :D
60% völlig hirnverbrannt:freak:
aber zum glück gibt es auch noch genug leute mit verstand, so war das lesen nicht ganz um sonst.

bitte ati released so schnell wie möglich, damit dieses gelaber endlich aufhöhrt


greetz
 
Zuletzt bearbeitet:
Wieso sollte man die karte auch nicht kaufen?!

Vorteile: Kürzer (eher weniger wichitg), schneller(wohl DAS wichtigste)

Nachteile: ein wenig mehr verbrauch (wir haben hier ja schon an beispielen gesehen, wie unwichtig das ist)
 
Bis jetzt sehen die MIdrange Karten nicht so dolle aus. Aber vielleicht ist der Chip ja so effektiv dank der Komplexität, dass er auch ein 128Bit Speicherinterface ausbügeln kann? Ich glaube aber nicht so recht dran. Werde mir dann bestimmt in nem MOnat noch ne x1650 xt für mein AGP Board holen. Das müsste ausreichen erstmal für die nächsten 3 Jahre. Habe eh nicht mehr so viel Zeit zum Zocken.
 
ich fühle mit dir ....

Und ich erst...:evillol:

was ich mich die ganze zeit frage, warum die keine ähnliche funktion in die grafikkarte einbauen sollten wie cool'n'quite, schließlich sollte amd doch genug zeit gehabt haben um derartiges zu integrieren. der release wurde ja fast ein halbes jahr verschoben, ausgehend von den ersten gerüchten, wenn ich nicht irren sollte.

CnQ senkt die Spannung und den Takt, seit dem R520 wird ein solches Verfahren angewandt.

das wäre doch eigentlich sehr vernünftig, zumal ich neulich in einem interview eines amd mitarbeiters bei heise las, wonach dies in künftigen generationen integriert werden soll. womöglich sprach er von der nun offiziell vorgestellten 600er generation.
gerade in bezug auf die gleichzeitige vorstellung des mobil chips, für welchen solcherlei features ja bei dem derzeitig sprekulierten spitzenverbracuh esenziel wären. also man muss nun abwarten und den evtl. zu erwartenden spitzenstromverbrauch in relation zur leistung und in verbindung zum idleverbrauch setzen. gerade der idle verbrauch in einer reinen 2d-umgebung könnte durch absenkung des kerntaktes- und gleichzeitiger spannungssenkung sehr gering sein. ich würde es mir zumindest mal so wünschen.

Halte ich für unwahrscheinlich, dennoch soll der R600 im Idle weniger Strom als der G80 verbrauchen.

eventuell sollte man nicht vergessen, dass der verbrauch bisher nur reine spekulation ist. und evtl. aus den reihen nvidias zusätzlich angeheizt wird, welche selbst derzeit aus diesen spekulationen nur kapital schlagen können (und 400.000+ einheiten ist eine mengen umsatz), gelten ihre boldien derzeit paradoxerweise schon als ware stromsparwunder unter den "experten".

Maximal 225 Watt, um etwas Luft nach oben zu lassen wohl 180 Watt-Verbrauch.

mfg Nakai
 
Wenn das so weiter geht mit den Größen der Grakas dann muss man sich bei jedem Aufrüsten der Graka immer direkt noch ein passendes Gehäuse dazu bestellen und je nachdem auch das Netzteil erneuern.:evillol:

Gruß CloudConnected
 
@CloudConnected
und der nächste, der entweder keine ahnung hat wo der unterschied zwischen OEM & retail ist oder einfach nicht lesen kann :freak::rolleyes:
 
ach kommmt, sooo toll is das auch nich. das wird sich im verhältnis zur 8800gtx kaum lohnen, ob jetzt 300fps bei half life oder 400 is egal. und bis sich die r600er lohnen hat nvidia schon die 8850gx2 draußen:D :D :D :freak: :cool_alt: ;) :cool_alt: :p :evillol: :king: :freaky: :lol:
 
@ 30 : dat waren noch zeiten :)
@xp_home: richtig

ich glaube nicht das diese karte bei mir ins gehäuse passt. aber ne 5 6000 wollt ich auch immer haben. man darf gespannt sein, aber mit ende märz.. ich dachte da kommt eher was.
 
und ich dachte schon ich habe den längsten
 
Zurück
Oben