F
FormatC
Gast
Nein, das mache ich generell nicht. Kannst ja morgen mal die üblichen Seiten abklappernfizzle schrieb:Könntest du die Ergebnisse posten, oder verlinken?
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Nein, das mache ich generell nicht. Kannst ja morgen mal die üblichen Seiten abklappernfizzle schrieb:Könntest du die Ergebnisse posten, oder verlinken?
Mr.Seymour Buds schrieb:Dir ist schon klar, dass das Speichersystem völlig umgebaut worden ist? Und 3. Gen Delta Color Compression sagt Dir sicherlich was. Laut Nvidia bringts bis zu 29% mehr "reale" Bandbreite (zB bei Metro LL).
Mr.Seymour Buds schrieb:Erstaunlich ist auch, dass Du 4k anführst, denn Maxwell wurde genau dahingehend optimiert. Die Display Engine kann sogar 5k darstellen und 4 4k Displays ansteuern (Kepler konnte nur "2" 4k Displays)....mmhhh...was nun?
SimsP schrieb:@Arno: Naja gut das kann ich zumindest teilweise nachvollziehen.
Aber nach der Argumentation müsstest du ja sagen, dass es bis heute keinen würdigen Nachfolger für die GTX280 gibt. Die hat nämlich ein 512Bit breites Speicherinterface.
Wichtig ist nicht das Speicherinterface, sondern die Datenrate und wie effizient die Daten darüber geschleust werden können. Hier hat NVidia (genau wie AMD) bei der neuen Generation auf eine Komprimierung der Daten gesetzt und außerdem einen größeren Cache, weshalb man auch mit der kleineren Speicherdatenrate keine Probleme hat.
HisN schrieb:Und es liegt an der Graka?
D3 ist doch grafisch völlig nichtssagend. Was rucken lässt sind die verbreiteten lahmen CPUs, und Games auf HDDs anstatt auf SSDs, jedenfalls wenn man D3 betrachtet.
Kenneth Coldy schrieb:Ich bin bei Dir, Bruder, obwohl ich genau den umgekehrten Weg gegangen bin. Im Bewußtsein das entsprechende Angebote nur eine Frage der Zeit sind habe ich extrem lange an 1280*1024 und erwähnter 4670 festgehalten. Dumm nur das AMDATI und NV den Performancezuwachs pro Generation gedrosselt haben und ich langsam weich werde. Aktuell steht hier ein 24'er mit 1920*1200 Auflösung der in ED in maximalen Settings eine arg ruckelige Slideshow zeigt.
Den Stand bezüglich 4K Gaming schaue ich mir dann in weiteren sechs Jahren an ;-)
FormatC schrieb:Es ist in der Firmware hinterlegt, also bereits ab Kauf fest eingestellt.
kisser schrieb:Ich sprach von der Stromaufnahme der CMOS-Transistoren. Die Versorgungsspannung zu messen ist überhaupt kein Problem, weil die sich nicht mit jedem Takt der GPU ändert. Unter Vollast der GPU ist die sogar konstant, solange die GPU nicht ins Powertarget Limit rennt und den Takt reduziert.
Ich habe die Signaltheorie bereits oben grob erklärt. Eines weiteren Beweises bedarf es nicht. Ach ja, ich bin auch Ingenieur, Fachrichtung Informations- und Hochfrequenztechnik.
Arno Nimus schrieb:[...]Motto: Es gehen jetzt aufgrund von Verbesserungen am Kompressionsverfahren bzw. auch effizienterer Ausnutzung des Vrams (sinnbildlich gesprochen) 15 Liter Wasser in den 10 Liter Wassereimer, ohne dass er überläuft und einem den Teppich versaut.
Dem gegenüber stehen dann aber überaus praktisch orientierte, sehr anschauliche Topics, hier im Forum, wie etwa jenes sehr gute von HiSn (schon vor Jahren eröffnet) wo regelmässig die tatsächlichen Speicheranforderungen von allen erdenklichen (natürlich vornehmlich jeweils aktuellen) Spielen gepostet werden. (gibt ja Programme, die das entlarven.)
Das Power Target kann jeder Hersteller nach Gutdünken selbst wählen. 225 Watt sind ja noch zahmNun bin ich verwirrt. Was denn nun? Sollten die technisch zugesicherten Eigenschaften nicht rechtlich verbindlich sein? Wo ist die Verbraucherzentrale wenn man sie mal braucht? (wurde im Baumarkt gesichtet, im Gespräch mit einem Verkäufer der ihnen einen Multimeter verkaufen sollte)
FormatC schrieb:Das Power Target kann jeder Hersteller nach Gutdünken selbst wählen. 225 Watt sind ja noch zahm
Pilstrinker schrieb:Ändert nichts an der Tatsache, dass die offizielle TDP von nVidia mit 165 Watt angegeben wird.
Und jetzt kommen die Boardpartner und kochen jeweils ihr eigenes Süppchen und prompt sind die 165W nicht mehr einzuhalten. Die 225W sind ja längst nicht das Ende der Fahnenstange.
Falsch. Diese TDP-Angabe bezieht sich NUR auf die Referenzkarte ind ist weder eine verbindliche Größe, noch beschreibt sie die gesamte Leistungsaufnahme der Grafikkarte, bei der ja auch so einige Watt auf die Spannungswandler entfallen. Jeder Hersteller hat das auch bisher schon so gehandhabt und es nicht mal neu.Ändert nichts an der Tatsache, dass die offizielle TDP von nVidia mit 165 Watt angegeben wird.
FormatC schrieb:Falsch. Diese TDP-Angabe bezieht sich NUR auf die Referenzkarte ind ist weder eine verbindliche Größe, noch beschreibt sie die gesamte Leistungsaufnahme der Grafikkarte, bei der ja auch so einige Watt auf die Spannungswandler entfallen. Jeder Hersteller hat das auch bisher schon so gehandhabt und es nicht mal neu.
Was ich sehe ist, dass bei der GTX970 die reelle durchschnittliche Gaming Aufnahme bei 178W liegt, und die TDP bei 145W.Thanok schrieb:Beim Gaming bleibt die Leistungsaufnahme innerhalb des Rahmens, zumindest im Durchschnitt pro Sekunde.
Das sind 30W Verlust durch SpaWas, PCB und Speicher. Ist doch in Ordnung. Die TDP Angabe bei NV (bei AMD kann ich es nicht mit Sicherheit sagen) bezieht sich nur auf die GPU.zeedy schrieb:Was ich sehe ist, dass bei der GTX970 die reelle durchschnittliche Gaming Aufnahme bei 178W liegt, und die TDP bei 145W.
zeedy schrieb:Was ich sehe ist, dass bei der GTX970 die reelle durchschnittliche Gaming Aufnahme bei 178W liegt, und die TDP bei 145W.