Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestGeForce GTX 680 im Test: Mit Kepler ist Nvidia wieder die Nummer 1
Liest sich ganz gut, wie Nvidia weiterentwickelt hat und der Framerate-Limiter ist in meinen Augen das geilste Feature an der GTX680.
Jetzt bin ich mal ganz stark auf die Performance-Karten im Bereich 250-300€ gespannt. Da hat mich AMD zumindest von der Leistung her nicht überzeugen können im Vergleich zur HD6870.
Klar, mit Wasser kommt man mal eben nochmal 40% höher als mit Luft und zwar alltagstauglich inkl. Gewährleistung.
Zotac bringt vielleicht eine Karte mit aufgebohrter Spannungsversorgung und dickem Kühler, aber bei 2 GHz wird die im Auslieferungszustand im Leben nicht laufen.
Ich gebe es auf.
Du bist einfach nicht offen für so ein Thema. Kannst dir nicht vorstellen, das eine Karte, die schon unter Luftstockkühlung bei 40 Grad herumfröstelt und mit Standardspannung bei 1,4 Ghz läuft, mit deutlich besserer Spannungsversorgung und wesentlich besserer Kühlung auch deutlich höhere Takte schafft.
Auch ignorierst du absichtlich den wesentlichen Unterschied zu den traditionellen Rekord-OC-Ergebnissen. Die nur durch extremer Erhöhung der V-Core erreicht werden.
Laut diesem Ergebnis hier : http://www.overclock.net/t/1232947/hwbot-gtx-680-takes-record-1900-mhz
Ist dies aber eine nun völlig andere Situation ! (Man beachte dabei auch die Power-Target-Einstellung von 100% !!)
Der Grund warum man nicht mehr V-Core gegeben hat, liegt nicht an der Leistungsaufnahme, sondern am Boarddesign, welches eben nicht mehr zulässt.
Genau da setzt nun Zotac an und kreiert ein eigenes Boarddesign, was eben diese Limitierung aufhebt. Somit werden wohl OC-Rekorde von 2 GH bis 2,5 GHz kein Problem mehr sein und unter Wasser sind 2 Ghz dann auch in greifbarer Nähe.
Aber das wirst du eh nicht glauben wollen richtig ?
Für Zotac ist dieses Projekt mehr als eine Machbarkeitsstudie. Offenbar ist niemandem hier klar, welche Ausmaße diese neue Wendung im Grafikkartenmarkt bedeuten kann.
Genau deshalb investiert Zotac darin so stark, weil sie eben Lunte gerochen haben.
Der Chip kostet deshalb nicht mehr in der Herstellung oder im Einkauf.
Jetzt gibt man ihm einfach deutlich mehr Takt und schon haben wir das neue teure Flaggschiff von NIVIDA.
Also weg von den teuren großen Siliziumkloppern, hin zu den wesentlich günstigeren und hoch getakteten Turbo-GPUs.
GK110 wird wohl der letzte große Chip werden und ab da gibt es dann nurnoch die Hochfrequenceeinheiten.
Leider hat die Sache einen Hacken. Das SI der GTX680 ist völlig unterdimensioniert und da machen 2 GHz GPU-Takt nur wenig Sinn.
Vielleicht baut Zotac ja etwas größeres, aber ob das so leicht geht ist die Frage.
Bin jedenfalls auf Mitte April gespannt, was sie da auf die Beine stellen werden.
Zu Zeiten von Pentium 4 hat man auch geglaubt, Intel würde mit ihren Prozessoren bald die 4GHz-Marke überschreiten. Wie es sich entwickelt hat, sehen wir heute am Beispiel LGA 2011: Grössere Chipfläche + höhere Leistungsaufnahme.
Um Gottes Willen, wenn ich das schon lese: 2,5GHz.
Es geht hier um grundlegendes Chipdesign: mit höherem Takt verkürzen sich die Schaltzeiten, wenn die zu kurz werden, passen die Laufzeiten in der Pipeline einfach nicht mehr und nichts funktioniert.
Ein Pentium 1 wird keine 500MHz schaffen, selbst wenn du ihm 50V gibst und die Wärme abführen kannst.
Wenn jemand wirklich erwartet eine Garantie auf 2GHz zu bekommen, dem ist nicht mehr zu helfen...
Der Pentium 4 war eine Kochplatte !
Um ihn auf 4 GHz zu prügeln, hätte man wohl eine Wasserkühlung als Boxenkühler mitliefern müssen.
Hat alles mit dem jetzigen Stand der Technik im 28nm-Verfahren rein gar nichts zu tun.
Nun öffnen sich neue Türen und Möglichkeiten, die die alten Denkmuster völlig negieren !
Die kommenden Ivy-Bridge werden mit 5 Ghz keine Probleme haben.
Wie es sich entwickelt hat, sehen wir heute am Beispiel LGA 2011: Grössere Chipfläche + höhere Leistungsaufnahme.
1. Die Leistungsaufnahme ist nicht höher ! eher umgekehrt.
2. Die größere Chipfläche resultiert durch die Mehrkerntechnologie, wo eben nun 8-12 Kerne zum Einsatz kommen. Pentum 4 war ein SingelCore !
Man hat nun mehr Rechenleistung durch Multicore realisiert, als durch Takterhöhung.
Nur ist eben bei der Halbleitertechnik nicht nur die Leistungsaufnahme ein Stein im Weg.
Auch die Taktfrequenz ist begrenzt, da die Schaltvorgänge für die Transistoren zu schnell werden bzw. die Transistoren sind zu träge. Das ist eben so eine Hürde, die man nur sehr schwer erhöhen kann.
Daher ging man den Weg der Multicore-Technologie.
Bei der GPU sind aber 1-2 GHz noch lange nicht als Hürde anzusehen, wo die Transistoren zu träge werden.
Der Grund lang vielmehr in der Leistungsaufnahme, da so eine GPU eben mit Milliarden Transistoren arbeitet und daher deutlich mehr Strom benötigt.
Nun scheint es aber mit dem GK104 deutlich besser zu funktionieren und die Leistungsaufnahme ist im kontrollierbaren Bereich. Daher sind Taktraten nun deutlich mehr steigerbar.
Ergänzung ()
Booby schrieb:
@Pickebuh
Um Gottes Willen, wenn ich das schon lese: 2,5GHz.
Es geht hier um grundlegendes Chipdesign: mit höherem Takt verkürzen sich die Schaltzeiten, wenn die zu kurz werden, passen die Laufzeiten in der Pipeline einfach nicht mehr und nichts funktioniert.
Die Welt ist eine Scheibe und Amerika gibt es nicht...
Die Schallmauer kann niemals durchbrochen werden...
Zum Mond wird niemals jemand fliegen können...
Nur weil man sich nichts vorstellen kann, heißt das noch lange nicht, das es nicht möglich ist.
Zu Zeiten von Pentium 4 hat man auch geglaubt, Intel würde mit ihren Prozessoren bald die 4GHz-Marke überschreiten. Wie es sich entwickelt hat, sehen wir heute am Beispiel LGA 2011: Grössere Chipfläche + höhere Leistungsaufnahme.
Der 3,8 GHz Pentium 4 war u.a. ein Singlecore (Prescott 2M) mit 115W TDP. Da bekommst du heute acht Kerne plus SMT mit 2,6 GHz und locker der doppelten Leistung pro Takt (Xeon E5-2670). Seit Jahren sind 130 bis 150 Watt TDP die Obergrenze bei AMD und Intel im Serverbereich - und innerhalb dieses Budgets steigt kontinuierlich die Leistung.
Geile Karte, aber ich werde mir erst den Maxwell holen.
Finde nur leider Schade, dass Nvidia hier erst mal nur den 'kleinen' Chip veröffentlicht, quasi die alte GTX 460.
Der GK 100 wird wahrscheinlich einen neuen Namen bekommen, GTX 780???
Boahh das wird ja immer besser, ja ich glaube die Grenze liegt bei 20GHz
Die Laufzeiten sind für die Zielfrequenz optimiert (+/- 20% weil die endgültige Frequenz kaum vorauszusehen ist), weil man sonst die Effektivität der Pipeline mindert (Pentium 4).
Sprich weniger IPC. Dann nimmt man etwa 50-70% Sicherheit drauf, damit auch wirklich jedes Signal unter den schlimmsten Bedingungen mit Sicherheit richtig durchkommt. Nur ein Idiot würde seine Architektur für unrealistisch kleine Schaltzeiten auslegen.
Bei CPUs ist die Architektur für längere Zeiträume ausgelegt, in denen neue schnellere Prozessoren kommen sollen, deswegen hat man da größeren Spielraum und somit größere Übertaktungserfolge.
Die Welt ist eine Scheibe und Amerika gibt es nicht...
Die Schallmauer kann niemals durchbrochen werden...
Zum Mond wird niemals jemand fliegen können...
Was du glaubst ist eh irrelevant, denn du glaubst offenbar an rein gar nichts.
Die Laufzeiten sind für die Zielfrequenz optimiert (+/- 20% weil die endgültige Frequenz kaum vorauszusehen ist), weil man sonst die Effektivität der Pipeline mindert (Pentium 4).
Sprich weniger IPC. Dann nimmt man etwa 50-70% Sicherheit drauf, damit auch wirklich jedes Signal mit Sicherheit richtig durchkommt. Nur ein Idiot würde seine Architektur für unrealistisch kleine Schaltzeiten auslegen.
Schön erklärt und mit Fachidiotie geschmückt. Nur leider erklärt das rein gar nicht, warum 2 GHz bei einer GPU nicht möglich sein sollte.
1,9 Ghz sind schon mit dem Stock-Board möglich. http://www.overclock.net/t/1232947/hwbot-gtx-680-takes-record-1900-mhz
Ich weiß gar nicht wie oft ich diesen Link schon gepostet habe. Aber anscheinend ist es einfach nötig.
Es gibt physikalische Grenzen, viele erkennt man aber erst nach ein paar Jahre Studium.
Ja ich habe studiert und studiere noch, und mache gerade meinen Master in Nachrichtentechnik und ich weiß nicht wie es mit dir steht, jedoch habe ich bereits, wenn auch primitive, Mikrocontroller designed.
Die aktuellen GPU-Architekturen werden sicherlich nicht für die 1GHz ausgelegt sein, sondern noch die nächste Fertigungsstufe einschließen. Ich schätze 1,4 GHz. Da nochmal 70% Sicherheit und es lassen sich unter den besten Umständen wohl 2 GHz erreichen.
@Nordm4nn
Wenn du min. FullHD + hoches AA fährst, wird fast immer die GPU bremsen
Naja, vor Jahren als die ersten CPUs mit 80 Mhz auf den Markt kamen, hielt man 100 Mhz für unmöglich. Damals glaubte man, hier an eine physikalische Grenze zu stoßen. Heute hat man dafür nur noch ein müdes Lächeln über.
Will sagen, gerade physikalische Grenzen werden andauernd neu gesteckt. Da gerade die Forschung, die Entwicklung neuer Technologien und deren Umsetzung bestehende Grenzen immer wieder überschreiten lässt.
Ob es nun irgend wann mal GPUs mit 2 Ghz Standarttakt gibt würde ich deswegen nicht ausschließen.
Das die neuen Fertigungsprozesse immer "Taktungsfreudigere" Chips hervor bringt sieht man z.B. an den I5 2500K, die ganze AMD 7er Serie und nun auch Nvidia mit der GTX 680.
Was ich dabei am verblüffensten finde ist, schafft man es die Chips zu übertakten und gleichzeitig die Temperaturen zu senken, verbrauchen die Chips auch kaum mehr Strom.
Was hat das eine mit dem anderen zu tun?
Wenn die Architektur dazu nicht fähig ist, geht das nicht auch wenn das Fertigungsverfahren höhere Taktrate zulassen würde, das ist eine Designentscheidung.
Die physikalische Grenze war auf die Signallaufzeiten bezogen. Wenn ein Pegel früher als erwartet kommt, hilft weder Kühlung noch Spannung!
Es geht bei der Diskussion ja nicht um absolute physikalische Grenzen, sondern um die physischen Beschränkungen des Designs.
Es wäre möglich eine GPU zu entwerfen die auf 3GHZ ausgelgt ist. Nur macht das niemand, weil so ein Ding vom Verbrauch und der Kühlung her unpraktikabel ist.
Naja, vor Jahren als die ersten CPUs mit 80 Mhz auf den Markt kamen, hielt man 100 Mhz für unmöglich. Damals glaubte man, hier an eine physikalische Grenze zu stoßen. Heute hat man dafür nur noch ein müdes Lächeln über.
Will sagen, gerade physikalische Grenzen werden andauernd neu gesteckt. Da gerade die Forschung, die Entwicklung neuer Technologien und deren Umsetzung bestehende Grenzen immer wieder überschreiten lässt.
Ja die Architektur hätte es geschafft, nur war die Formel aus meinem letzten Beitrag das Problem.
Übrigens ist es auch der Grund wieso der P4 Prescott langsamer war als Northwood. Die Architektur wurde für höhere Taktrate angepasst, das hat die IPC runtergezogen.