News Weitere Bilder übertakteter GeForce GTX 560 Ti

Ich seh' grad', das etxtreme OC Modell von Galaxy setzt ausschließlich auf digitale Wandler.
Kann man nur hoffen, das das Teil dauerhaft stabil Läuft.
 
Es geht nicht darum eine High-End Karte von ano dazumal mit heute zu vergleichen und dann stolz zu sein, dass sie mit fast 50% mehr Energie vielleicht 150% schneller ist! Was ist mit neuerer Technik, leistungsfähigeren Chips? Ist Dir das egal?

@lars: Die modernen Karten sind sicher mehr als 150% schneller, das ist Punkt a). Und b) wo warst du die letzten 10 Jahre? Tut mir leid aber wenn du meinst, an der Technik hätte sich nichts getan, hast du wirklich von nichts eine Ahnung. Danke für dieses Auting :) :rolleyes:

Warum können wohl so gut wie alle CPUs eine deutlich höhere Leistung verkraften als die mit der sie verkauft werden, weil bei CPUs eben immer noch jemand da ist, der sagt, so hoch können wir mit der Energieaufnahme nicht gehen bzw. die Spezifikationen erlauben es nicht, auch wenn es technisch und auf das Produkt gesehen, möglich wäre!

Ganz einfach, erstens, muss jede, wirklich JEDE CPU die Spezifikationen erreichen und da gibt es teils erhebliche Unterschiede durch Serienstreuung. Und dann möchte der Hersteller auch eine gewisse Leistungsstaffelung haben, des Profites wegen :) Aber BWL scheint ja auch nicht dein Ding zu sein...:rolleyes:
 
Die Gtx560 wird sicher nicht so im Preis fallen wie die 460, weil die Leistung wesentlich höher ist. Mindestens 200€ wird man rechnen müssen, auch nachdem der Preis gefallen ist. Ehrlich gesagt war die GTX 460 zum Launch viel zu teuer, und hat sich erst gut verkauft als sie deutlich unter 200€ gesunken ist.

Trotzdem wird sich die 560 wieder super verkaufen, auch wenn sie für mich nicht interessant ist. Eher wird siw der 570 er das Wasser abgraben.

mfg
 
Lord Quas schrieb:
+jemand der einfach das Nachplappert was einem die Industrie/Hersteller erzählen. Großartig.

Wenn das Interesse hoch genug wäre oder es absolut notwendig ist, würden wir auch Autos mit >500PS und <10L Spritverbrauch sehen ;)

Es gab Zeiten in der Formel1 wo die Literleistung der Motoren bei 625 kW/l lag. Also nochmal für alle, 625KW aus einem Liter Hubraum. Das dadurch der Verbrauch nicht ins Bodenlose sinkt ist ein anderes Thema, zeigt aber das es ganz sicher Wege gibt die Entwicklung in diese Richtung vorranzutreiben und zwar schneller und besser als es jetzt der Fall ist.

großer nachteil solcher hochgezüchteter motoren ist die geringe laufleistung:freak:

nicht schlecht, son 500PS bolide als wegwerfauto. kannst bei jedem einkauf gleich nen neuen mitkaufen:D

also bevor man was "nachplappert" sollte man auch wissen was man "nachplappert" bzw. mal das köpfchen einschalten.

Red Bull Team hat 8 Motoren für 19 Rennen mit in die saison 2010 genommen.
Ferrari sind bei übersehrennen mal eben 5 motoren abgeraucht.

wären mal lustige meldungen, wenns heist, oma auf dem weg zum supermarkt erfroren, weil vergessen, den motor zu wechseln.:evillol:
 
micha2 schrieb:
na endlich;)
kann ich so unterschreiben.

@topic
freu mich schon auf die GTX560. ich hoffe das sie preislich der GTX460 schnell folgen wird.
180-200€ wären mein aktuelles limit.
was die 20W angeht, werde ich zum ausgleich meine letzte alte lampe durch eine energiesparende ersetzen:D

Hehe da haben die Energie Multis die Preise ja schon angezogen für du pendelst da je nach Anzahl eh im selben kosten berreich als vorher (+ die Ausgaben) aber natürlich tust was für die Umwelt das hat ja auch was gutes (Qucksilber/Amalgam) ;)
Wenn jeder so wie Farug denken würde dann hätten die Energie Multis irgendwan extreme verluste das geht ja mal garnicht ;)

Nvidia hat schon verlautet das Transistoren nicht mehr das Hauptproblem sind sondern Energie und sie sind bemüht das in Zukunft zu ändern :) siehe ihre ARM CPU mit 3D Kern sowie Tegra 3 :) AMDs Fussion geht genauso wie Sandy Bridge in die selbe Richtung.
Prinzipiel gibt es aber nunmal 2 käufer sichten die einen geben Geld für Performance aus (meistens Gamer) die anderen für Energieeffizienz (das sind die die ihre GPUs mal wechseln wenn die 2x fache performance bei selbem Verbrauch erreicht ist, so jemand wie ich ;) ) letztens war diese Balance bei der 460 GTX sowie der 5770 gegeben (Preis/Leistung/Performance)
Die Xbox 360 und PS3 kommen beide unter last mit 100W zurecht und da orientieren sich heutige Spiele Engines dran (hier sei gesagt overall performance also CPU+GPU) bei 720p und 2-4AA alles drüber ist mehr oder weniger Earlyadopter aber nicht Game Mainstream ;)
Ein anderes Problem ist das GPUs diese tage auch nicht nur für 3D Performance ausgelegt werden sondern auch zur Berrechnung von anderen sachen (Raytraycing,Physik,Folding) was wiederum die 3D Performance absacken lassen kann und hier ist immernoch ATI sehr gut beim Ausbalancieren wobei Nvidia probleme hat.
In diesem fall hat Farug recht das sieht man auch in jedem CB test wenn man den Energieverbrauch von Nvidia und ATI vergleicht ist ATI effizienter und kann mir ihren mehr Shadern auch noch effizienter Rechnen als wie Nvidias SMs (Fermi) im Moment.
Das einzige was nicht so gut in AMD/ATIs karten werkelt ist ihr AF und UVD da hat Nvidia den bessern Algorithmus und ASIC als wie ATI gebastelt (wobei man hier auch noch ein Stück tiefer in der analyse gehen könnte als wie CB das tut) :)
Eine Grafikarte ist nicht mehr das was sie einst war und wenn man sie richtig bewerten will muss man alles aber auch wirklick alles an ihr analysieren das macht CB aber nur zum Teil (sind halt auf Gamer ausgelegt, und verdienen so ihren Lebensunterhalt) wo es für den normalen Konsumenten interesant ist nicht aber darüber hinaus das muss man schon selbst machen dafür benötigt man dann aber auch das Know How und muss sich in jedem Berreich auskennen, und vor allem benötigt man die Zeit und natürlich das Geld :)
Das CB immernoch Werbung für Galaxys Karten veröffentlicht bleibt mir ein Rätsel im Deutschen Markt findet man die nicht ich hab noch nie eine gesehen und bei KFA² werden sie so auch nie released die News über Galaxy Karten und vor allem die Diskussion danach wundern mich immer wieder :)
 
Zuletzt bearbeitet:
Also ich möchte jetzt auch mal meinen Senf dazu geben.

Ganz egrlich? Wenn ich diese Öko Kommentare schon lese geht mir der Hut hoch. Ihr wollt irgendwas erzählen von wegen "20Watt mehr deine Kinder werden es dir danken"? Hört doch mal auf zu Zaubern Jungs. Diese 20W sind mal sowas von schei... egal das glaubt ihr garnicht. Denn da wo wirklich Energie gespart werden kann das es auch tatsächlich eine Auswirkung hat wird sie verbratten immer aller Übelsten Umfang. Ich kann auch gerne zwei Beispiele nennen.
1. Ne bakannte Arbeitet in einem Großen Betrieb und die haben mal eben alles an gemacht was strom braucht die Klima in den Hallen auf Max gefahren über all wo es nur ging 100W Glühbirnen reingedreht nur um die nächste Stufe der Stromflatrate zu schaffen.
2. Ich Arbeite im Sicherheitsdienst und hab da auch ne Zeitlang Revierdienst gemacht. Heist man fährt von Unternehmen zu Unternehmen und schaut ob da alles ok ist. Da brennt eben mal Nachts um 2 in der Hälfte der Büros das Licht(ist ja zuviel verlangt beim verlassen des Zimmers das aus zu machen) und fast jeder Rechner läuft die ganze Nacht durch für nix einfach weil die leute zu faul sind den am Nächsten Morgen wieder an zumachen. Oder Beamer läuft die halbe Nacht bis ich ihn aus gemacht hab.
Diese Liste könnte ich noch Stundenlang weiter führen. Und ihr wollte mir jetzt erzählen das ich mir einen Kopf machen muss wegen 20W mehr Verbrauch einer Graka?
Und nur so neben bei. Wo wahrt ihr zur zeiten der G80 GPU's oder ATI4000 Serie da war der Idel Modus ein Fremdwort! Und was habt ihr da gemacht? So Leute wie ihr die sich über sowas aufregen sollten echt den PC besser auslassen sonst geht noch die Welt unter.
MFG
 
Von 150 Watt auf 180 Watt sind bei mir immer noch 30 Watt, nicht 20 Watt sondern 20%.
30 Watt sind nicht viel aber klein Vieh macht auch mist, es geht viel mehr um das Prinzip.
Die GTX 560 ist keine High-End Karte sondern eine die sich im Mainstream aufhalten wird.
Die Frage ist doch warum man in diesem Bereich einen mehr Verbrauch um 20% einführen muß, die OC Versionen gehen ja sogar über 30% .

Das Problem ist das die meisten nur die 30 Watt sehen und sich denken 30 Watt das ist ja nicht viel.
Wenn man sich aber mal überlegt das das 20% sind sollte man sich fragen warum so viel.

In der heutigen Zeit sollte man mehr Leistung nicht mit mehr Verbrauch rechtfertigen, im High-End bereich ist das ein anderes Thema aber nicht im Mainstream.
Das wirkt eher so als Nvidia sich eigendlich mehr erhofft hat als technisch drin war, denn mehr Leistung durch mehr Verbrauch ist keine große Kunst und sollte nicht der Grund für eine neu Kartengenartion sein.

P.S.
Ihr solltet froh sein das es noch Menschen gibt die auf den Verbrauch achten, wenn alle solche eine Einstellung hätten wir die meisten hier wären die Fossilen Brennstoffe schon aufgebraucht.
 
Entschuldige mal wenn ich das jetzt so deutlich sage aber deine Antwort ist zum Teil Öko bash vom feinsten.
Sicher hast du recht das wir schon auf Verbrauch unser betriebenen Geräte achten sollen das ist alles richtig und gut. Aber was ihr macht kann ich nicht verstehen! Ihr wisst weder wie Effizient die Karte ist noch irgend was anderes. Ihr lehst 30W moment 20% und schreit Aamergedon. Darüber reg ich mich auf und über nix anderes. Sollte die Karte nur 20% schneller sein und 20% mehr Verbrauchen ist sie absluter Mist geb ich dir recht. Aber wie Realistisch ist das? Richtig garnicht. Und was man auch nicht vergessen sollte die GTX560 hat im Vergleich auch mehr Elektronik verbaut(Shader,Rops, usw.)
Also kommt mal wieder von eueren Pzeudo Öko Tron runter und last die Kirche im Dorf. Umwelt bewusst schön und gut. Aber mit eurem geflame(sry für den Ausdruck) zieht ihr nur die Leute in den Dreck die sich wirklich für die Umwelt einsetzt. Den auch wenn das hier einge nicht Kappieren wollen und werden. In dem ihr Zuhause Stromspart geht kein Akw früher vom Netz.
 
Zuletzt bearbeitet:
@KillerGER87: Danke :)
Den auch wenn das hier einge nicht Kappieren wollen und werden. In dem ihr Zuhause Stromspart geht kein Akw früher vom Netzt.

Genau das ist das Problem. Die Leute haben leider keinen Ueberblick fuer das grosse Ganze, sondern ihre Welt endet an ihrer Haustuer :rolleyes:

@Farug: Treehugger :evillol:

Edit: farug, kauf dir doch ne POV GTX560TI, die habe oft was gruenes. Also so Bildchen drauf. :)
 
Farug schrieb:
Von 150 Watt auf 180 Watt sind bei mir immer noch 30 Watt, nicht 20 Watt sondern 20%.
falsch!
hier geht es um eine erhöhung von max. 160W(GTX 460) auf max. 180W(GTX 560)
ich betone max.
im idle liegen sie nah zusammen.

bei meiner weiteren betrachtungsweise deines posts lasse ich mal diese falschaussage aussen vor.
Farug schrieb:
30 Watt sind nicht viel aber klein Vieh macht auch mist, es geht viel mehr um das Prinzip.
Die GTX 560 ist keine High-End Karte sondern eine die sich im Mainstream aufhalten wird.
Die Frage ist doch warum man in diesem Bereich einen mehr Verbrauch um 20% einführen muß, die OC Versionen gehen ja sogar über 30% .

warum sollte man das nicht tun.
immerhin ist sie schneller als ihr vorgänger. geplant war sie von vornherein. oder meinst du, das die 384 shader auf dem GF104(=GF114) nie zum einsatz kommen sollten?
sie beruht also auf einer technologie, welche schon entwickelt wurde. also nicht wirklich ein fortschritt ist.
der vergleich den du hier aufführst sollte also eher mit ihren vorgängern, ner GTX260(182W)/GTX275(216W) geführt werden.
schmeise ich diese direkten vorgängerkarten aus meinem rechner und kaufe mir ne GTX 560 so spare ich also energie.
Farug schrieb:
Das Problem ist das die meisten nur die 30 Watt sehen und sich denken 30 Watt das ist ja nicht viel.
nö, die meisten wissen, das ihr rechner mehr im idle läuft, als mit max.!
also beim sürfen verbrauchen sie überhaupt nicht mehr.
man kann es auch so sagen. im idle verbraucht ne GTX 460 etwas über 14W. eine alte GTX260(ihr mainstreampendant der vorgängergeneration) nam 32W. ich spare also immens.
man könnte es auch so ausdrücken: NV macht sich mittlerweile gedanken, was den stromverbrauch angeht.
Farug schrieb:
Wenn man sich aber mal überlegt das das 20% sind sollte man sich fragen warum so viel.
warum sollte man fragen? du bleibst die antwort immer schuldig, hackst aber auf dem verbrauch rum. warum? fehlen dir die argumente? weist du es selber nicht?
warum ziehst du dich überhaupt an einem wert hoch, der bei den meisten überhaupt nur die wenigste zeit erreicht wird?
wenn ich strom sparen möchte schaue ich auf "idle"!
meine HD4870 verbrauchte im idle 36W(max 157W). meine GTX 460 braucht 14W (max. 160W).
jetzt rate mal, bei welcher karte ich strom spare. und das bei ner ordentlichen schippe mehrleistung.

Farug schrieb:
In der heutigen Zeit sollte man mehr Leistung nicht mit mehr Verbrauch rechtfertigen, im High-End bereich ist das ein anderes Thema aber nicht im Mainstream.
Das wirkt eher so als Nvidia sich eigendlich mehr erhofft hat als technisch drin war, denn mehr Leistung durch mehr Verbrauch ist keine große Kunst und sollte nicht der Grund für eine neu Kartengenartion sein.
warum sollte das im highendsektor ein anderes thema sein? NV sieht das anders. oder warum hat NV ihren fermi so spät auf den markt geschmissen? warum wurde der GF104/GF110 entwickelt bzw. optimiert?
richtig! die ersten fermis bekamen regelrecht abwertungen wegen des verbrauchs.
Farug schrieb:
P.S.
Ihr solltet froh sein das es noch Menschen gibt die auf den Verbrauch achten, wenn alle solche eine Einstellung hätten wir die meisten hier wären die Fossilen Brennstoffe schon aufgebraucht.
man gut das die menschen auch wissen wie man auf den verbrauch achtet. wenn sie darauf so achten würden wie du, wären die fossilen brennstoffe ebenfalls schon aufgebraucht.
 
Zuletzt bearbeitet:
Energiesparen ist nicht verkehrt. Allerdings hat sich die Effizienz der Karten in den letzten Jahren doch gebessert.
Dieses Geheule hier, dass diese Karte 20 o. 30 Watt mehr verbraucht ist echt nervtötend.
Lieber Farug, du müsstest ja schon bemerkt haben, dass hier - in einem Computerforum - die Wichtigung mehr bei Leistung liegt. Dein Anliegen dürfte in den Foren von Greenpeace und co. besser aufgehoben sein.
Wie ich hier schon schrieb: die Karte mag zwar 20/30 Watt mehr verbrauchen, allerdings bietet sie eben auch 20-30% mehr Performance. Passe ich dies nun an (durch Undervolting, oder Senkung des Taktes) habe ich einen geringeren Verbrauch bei etwas mehr Leistung gegenüber der Vorgänger-Karte.
Also heul net rum!
 
Chris da würde ich dir aber gerne wiedersprechen! Ich gehe schon davon aus das bei 20% mehr verbrauch mindestens 30% mehr leistung rausspringen siehe GTX470 zu GTX570 und 480 zu 580. Wie ich oben schon erwähnte würde ich es, wenn es so eintritt wie du es dir denkst, Farug recht geben dann wäre es für mich wie so in der Gamer sprache heist ein Fail(also die Karte meine ich) seitens Nvidia. Denn damit würden sie ja wieder einen Schritt zurück machen im Bezug auf die beiden anderen 5xx Karten.
MFG
 
Die Spieleleistung steigt aber nunmal nicht linear zum Energieverbrauch, das war schon immer so wenn es ans Limit geht. Da holt man dann noch ein paar MHz raus, die aber teuer durch Spannungserhöhung erkauft werden muss. Wer damit nicht leben kann holt sich halt Mittelklasse Karten. Braucht man sich doch nicht drüber aufregen. Die Hersteller geben schon ihr bestes, wären ja doof wenn sie der Konkurrenz kampflos das Feld überlassen würden.
 
Ich habe gerade nochmal ein paar interessante informationen zum Thema effizienz gefunden. Einige behaupten ja hier, da haette sich technisch nichts getan...Wie man so eine Sch**** schreiben kann ist mir auch ein Raetsel.

Eine Nvidia 7900GTX hatte eine TDP von 120 Watt. Eine GTX560TI hat eine von 180 Watt. Das sind 50% mehr. Nur wird mir doch jetzt keiner erzaehlen koennen, dass die nur 50% mehr leistet. Tut mir Leid, aber solche unfundierten Aussagen zur Effizienz sind einfach ein Witz...

Vielleicht nehme ich mal die GTX460 als Vergleich, da ja hier schon verlaessliche Informationen vorhanden sind: Rechenleistung GeForce 7900GTX: 301 GFlops
GTX 460: 907 GFlops
TDP: GeForce 7900 GTX 120 Watt
GTX 460 160 Watt

Das entspricht 33% mehr Verbrauch, maximal Verbrauch wohlgemerkt, und ziemlich genau 200% mehr Leistung. Das ist ein Verhaeltnis von 1:6. Und das innerhlab von 4 Jahren. Wer jetzt noch behauptet, das waere eine flasche Entwicklung, der offenbart a) Keine Ahnung vom Thema b) Kein Texverstaendniss/ kann FAKTEN nicht auswerten c) Sollte seinen Computer schnellstens aus dem Fenster werfen und in eine Hoehle ziehen.
 
Danke Daniel für den schönen Vergleich! Ich war selbst mal stolzer Besitzer einer 7900GTX hat über 3 Jahre gute Dienste geleistet und Arbeitet heute noch im Rechner von einem Freund und leistet dort noch immer gute Dienste.

Und mal zum Thema Stromsparen. Was da wirklich Sinn machen würde wäre für mich. Ein Mainboard wie wir es alle kennen aber mit Zusätzlicher ARM Soc drauf. Praktisch änlich wie Nvidia Optimus nur das im wenig Lastbereich die ARM werkelt(Filme Surfen usw.) Und unter last der Große CPU und GPU so wie wir sie heute kennen anspringt. Das wäre mal was. Aber ich glaub bis ich sowas Zuhause stehen hab bin ich 40 und hab Kinder. Wenn jetzt einer Fragt bin 23.
MFG
 
Ich finde es echt schade das die meisten nur die Leistung im Kopf haben und eine Grafikkarte an der Länge des Benchmarksbalkens beurteilen.
Was aber viel schlimmer ist das man Witze über ökologisches Denken macht.

Ihr stellt meine Post als Unsinn hin und macht Äußerung wie, das bisschen mehr Verbrauch, vom Zuhause stromsparen geht kein Akw früher vom Netz, wer Leistung haben will muss den erhöhten Verbrauch hinnehmen.
In Zeiten wo andere Firmen und Branchen versuchen den Verbrauch so niedrig wie möglich zu halten, wo ein ganzer Kontinent aus Effizienz gründen die normale Glühlampe verbietet, kommt Nvidia und schraubt den verbrauch ihrer Grafikkarten deren Verkaufszahlen mehrere 100.000 Stück betragen, nach oben.
Hätte man den Verbrauch nicht erhöht und hatte nur weniger mehr Leistung generieren können wäre das in meinen Augen ok gewesen aber an der Energieschraube zu drehen ist nicht ok.

Wie ich schon mal gesagt habe ist es mir schnuppe ob es nun Nvidia, Ati oder sonst wer so handhabt, es sollte in jeden Fall drauf hingewiesenen werden.
Hätten manche nicht gleich so allergisch drauf reagiert, hätte ich euch schon längst in Ruhe gelassen.

Lassen wir das erst mal hier und warten die ersten Test der GTX 560 ab dann sieht man ja ob sie nur Leistung durch mehr Verbrauch generieren ( was ich im übrigen sehr schade finden würde, da ich an dem Kauf dieser Karte intressiert bin) oder nicht.
 
Zuletzt bearbeitet:
Morgen nachmittag ist's soweit, dann können wir uns über Leistung, Preis und Verbrauch streiten ;)
 
Naja seh es mal so, eine Grafikkarte ist am Tag villeicht im Schnitt eine, max zwei Stunden unter Volllast.
Da lohnt es sich meines erachtens eher an Sachen wie Kühlschränke, Lampen oder sonstiges zu optimieren. Es geht hier außerdem um High-End Produkte. Die Hersteller versuchen da schon die Leistungsaufnahme minimal zu halten, wollen aber auch den Konkurrenten in der Rechenleistung übertrumpfen. Was sollen die Hersteller denn tun? Keine schnellen Karten bauen? Mit der aktuellen Technologie scheint es nunmal nicht besser zu gehen.
Dein Post ist nunmal genauso, als würdest du dich darüber beschweren, dass ein Ferrari unter Vollgas mehr als 10 Liter Sprit schluckt.
 
Danke Farug für den Glühlampen anstos ich wollte damit nicht Anfangen aber wenn du schon eine Steilvorlage lieferst.
Wenn du wirklich so Öko währst wie du hier tust wüsstest du das die EU bereits wieder zurück rudert. Denn wenn man mal vom Verbrauch weg geht merkt man sehr schnell das die ach so Tollen Energiesparlampen wesentlich Umweltschädlicher sind als die Glühlampen. Denn ihre Inhaltsstoffe sind nicht nur Giftig für uns als Verbraucher sondern auch noch Sondermüll wenn sie denn mal entsorgtwerden müssen. Soviel zu deinem Öko verständnis
 
und vorallem in der zeit wo ihr euch jetzt über dieses thema streitet, verbraucht ihr strom durch den angelassenen PC und wertvolle nerven.. wusste echt nicht dass es hier so viele erbsenzähler gibt...
 
Zurück
Oben