Test GeForce GTX 1660 Ti im Test: Wie die GTX 1070 FE mit neuen Shadern und weniger Speicher

lynx007 schrieb:
2k ist wie auch 4k sind genutze Industriestandarts. Ob man also jetzt von 2560x1440 redet oder von 2048x1080, ist schon ein Unterschied. Auf den Pixel gerechnet Steht da eine Diffenz von 3'686'400 zu 2'211'840. Und manche verfolgen vielleicht nicht von Anfang an die Diskussion.
Shit, da war ich wohl auf dem Holzweg, nja man lernt nie aus :D

lynx007 schrieb:
@Sennox
Da soviele den Eindruck erwecken das 6gb Speicher bei einer 1660ti gründsätzlich zu wenig sind, und du wiederum behauptest das eine 1070 für 1440p reicht, würde mich das durchaus intessieren.
Hab ihn mal gefragt, wenn die Antwort zeitnah kommt stelle ich sie gern bereit.

Edit:
Hab die Antwort.
Liegt meistens bei max. 4,2 GB, ab und an mal 4,4 GB - ungemoddet.
Mit Mods könnte es dann eng werden.
Unter FullHD liege ich, mit sehr ähnlichen Einstellungen, bei 3,4 GB - 3,6 GB
 
Zuletzt bearbeitet:
KlaraElfer schrieb:
HBM ist nicht dazu da bei der Speichermenge Strom zu sparen, sondern bei der Anbindung des Interfaces an die GPU was die Bandbreite betrifft.

Mehr V-ram kostet nicht mehr Strom, jedenfalls nicht wirklich messbar.
Ob's jetzt die Speicher-Controller sind (welche man benötigt, um mehr Speicher anzubinden) oder ob's die Speicherbausteine an sich sind (welche ohne entsprechenden Controller nutzlos sind). Die Kernaussage, daß mit größerer Speicherbestückung die Leistungsaufnahme steigt, bleibt doch vollkommen unverändert?!
KlaraElfer schrieb:
Da liegst du komplett daneben. Speichermenge kannst du mit GDDR6 heutzutage auf 48GB aufpumpen.
Ja, und? Das geht mit GDDR5 nicht, wenn man genug Platz auf dem PCB hat?
Was hat das eine mit dem anderen zu tun? Wir sprachen über Stromverbrauch in Verbindung mit der Speichergröße, nicht über Speicher-Größe als solches. HBM wurde in erster Linie genau dazu entwickelt, im Gegensatz zu GDDR5 eine verringerte Leistungsaufnahme zu haben (±↓40%).

Der Punkt ist, daß nVidia zwei weitere 32 Bit-Speichercontroller hätte verbauen müssen, um mehr als 6 GByte an VRAM-Speicherbestückung (ohne bandbreitenlimitierende Verkrüppelung à la GTX 970) anbinden zu können – und dies hätte sich sehr wohl auf den Verbrauch der Karte ausgewirkt.

Die Kernaussage (des mehr Speicher auf der GTX 1160 TI ≙ höhere Leitungsaufnahme → verringerte Effizienz) bleibt davon, ob es die Speichermodule als solches oder bloß der entsprechend notwendige Controller am SI ist, der den Mehrverbrauch verursacht, also vollkommen unangetastet.


In diesem Sinne

Smartcom
 
  • Gefällt mir
Reaktionen: Sennox
lynx007 schrieb:
... Und diese bei einem Freund läufts blablabla... da vertraue ich doch lieber Benchmarks, als irgendeinem Freund wo sie wie oft an seinem Rechner sitzen?

Und ich vertraue dem FPS-Counter.
Wenn Shadow of Mordor @Max @1440p größtenteils 60FPS anzeigt, dann ist das für mich flüssig genug.
Da du auf Benchmarks stehst: 60FPS average, 83FPS max, 45FPS min.
Für mich ist das spielbar.

lynx007 schrieb:
. Und es geht hier um die 1660ti und nicht um die 980ti...

980ti = 1070 = 1660ti
Daher darf man sehr wohl die 980ti zum Vergleich nehmen
 
  • Gefällt mir
Reaktionen: Sennox
Smartcom5 schrieb:
Die Kernaussage, daß mit größerer Speicherbestückung die Leistungsaufnahme steigt, bleibt doch vollkommen unverändert?!

Ja und die Kernaussage ist doch klar falsch?!
Mehr Speicherbestückung kostet eben nicht mehr Strom, sondern das Design eines größeren Interfaces oder das Anheben der Speichertransfertaktrate.

Smartcom5 schrieb:
Wir sprachen über Stromverbrauch in Verbindung mit der Speichergröße, nicht über Speicher-Größe als solches.

Jup und Speichergröße korreliert nicht mit mehr Stromverbrauch. Ansonsten hätte die Quadro mit 48GB RAM ja nicht die gleiche TDP wie die Gamingvariante mit 11GB, die hat sogar die höhere TDP, wegen höherer Chiptaktraten.

Plastikman schrieb:
Man sollte wirklich mehr darauf hinweisen, dass die Effizienu durch den wenigen VRAM erkauft wird.

Diese Grundaussage ist absolut falsch. Die Effizienz wird nicht durch 2GB weniger Speicher erkauft, sondern durch das 192 bit Speicherinterface (klein und effizient) und durch GDDR6, sowie den effizienten Chip.
Du kannst da auch 18GB (3x6) draufklatschen, sofern das pro Speicherchip möglich ist.
 
Zuletzt bearbeitet von einem Moderator:
KlaraElfer schrieb:
Mehr Speicherbestückung kostet eben nicht mehr Strom, sondern das Design eines größeren Interfaces oder das Anheben der Speichertransfertaktrate.
Sag mal, willst Du mich eigentlich für dumm verkaufen, oder was soll diese kleinliche Haarspalterei?!
Wofür sollte man denn bitte in erster Linie ein größeres Speicher-Interface auf einer Karte verbauen, wenn nicht, um daran mehr VRAM zu verdrahten?! Was bitte soll der Quatsch? Würde man nicht VRAM verbauen wollen, bräuchtest auch keine Speicher-Controller, oder?

Lass‘ gut sein. Irgendwas sagt mir, daß wir da nicht mehr auf einen gemeinsamen Nenner kommen, deswegen ist der Punkt für mich an dieser Stelle erledigt – für so einen Quatsch ist mir die Zeit einfach zu schade.


In diesem Sinne

Smartcom
 
  • Gefällt mir
Reaktionen: lynx007, Rock Lee und Luxmanl525
Vielleicht geht's um größere Speicherchips :volllol:

So Leute, hat Spaß gemacht.
Hab jetzt das Moped entwintert (im Februar :freak:) und werd das Wetter genießen.
Wir lesen uns später
👋
 
DrFreaK666 schrieb:
Die Xbox One X kam 2017 mit 12GB auf den Markt und du gehst tatsächlich davon aus dass die Next Gen keine >=16GB hat?

Ich dachte du sprichst von Grafikspeicher, weil wir ja über Grafikkarten sprechen. Dann sinds eben nur 8GB bei der One X.
 
DocWindows schrieb:
Ich dachte du sprichst von Grafikspeicher, weil wir ja über Grafikkarten sprechen. Dann sinds eben nur 8GB bei der One X.

Aber jetzt schon deutlich mehr als 6GB und mit der nächsten Generation wird die Differenz noch größer.
Schön dass wir einer Meinung sind :D
 
@DrFreaK666 Speaking of... Wie kann es eigentlich sein dass man am PC noch mit 4GB Karten spielen kann wenn die Konsolen so maßgebend sind was den RAM-Bedarf von Grafikkarten angeht?
Und nicht nur das. 8GB Karten werden ja in FullHD und WQHD werden ja ramtechnisch meist nicht mal ausgelastet. Trotz 8GB Konsolen.

Sind Konsolen vielleicht am Ende gar nicht so wichtig wie viele denken?
 
Zuletzt bearbeitet:
Und noch ein solcher Speicherkrüppel, wenn ich auf der suche nach eine rneuen Grafikkarte wäre würde ich wohl eher zur 1070 greifen oder eben was von AMD
 
Smartcom5 schrieb:
Da darf ich nur daran erinnern, daß ComputerBase meines Wissens bis zum heutigen Tage bezüglich Meltdown & Spectre eigentlich alles vollständig und unreflektiert unter den Tisch fallen läßt. Neutralität oder Offenheit gibt es da schlicht nicht. Sämtliche unliebsamen Fragesteller werden gekonnt ignoriert.

Wieso liest du dann noch Tests auf CB und beteiligst dich fröhlich in deren Forum? Ganz ehrlich, wenn ich zu der Überzeugung komme, daß absichtlich falsch oder nicht vollständig berichtet/getestet wird, das Gefühl habe Fragestellern zu ignorieren, wäre ich weg, meine Freizeit dann auf einer so unwürdigen Techseite zu verplempern
wäre doch viel zu schade....
 
DaTheX schrieb:
Hier hätte man auch den Titel: Zu laut, zu langsam und zu teuer, aber mit 16 GB HBM2 6GB DDR6 verwenden können.
Oder zumindest fällt ein anderer Stil auf. Ansonsten müsste der Titel wohl sein:
"Speicherkrüppel und viel zu teuer. Aber dafür Grün/Stromsparend".

Das ist schon ein wenig grotesk, die preisgünstigste 1660 ist ein Design einer 150€-Karte*, und mit den Beschränkungen beim Powerlimit wird der Grossteil dann eher zu den teureren Modellen greifen wollen, obwohl eigentlich kann man dann direkt zur 2060 weitergehen. Und wir reden hier über ein Modell im erweiterten Mainstream-Preisbereich. Nicht über eine Karte wie die VII, wo man eh weiss, dass sie nur wenige erreichen wird, und es keinen Preiskampf geben wird.

Eigentlich hat die Karte bei der preislichen Nähe zur 2060 keine Daseinsberechtigung.
Es wird bei Nvidia gespart bei Kühllösung und Arbeitsspeicher+Arbeitsspeicheranbindung, solange der willige Kunde zahlt. Btw. Warum findet man die 1060 im Preisvergleich aber nicht die RX580? Die RX590 ist schon ein gutes Stück teurer.
*Klar ist das auch Verdienst der Stromsparanstrengungen.

@CB
Gibt es ohne Zeitdruck möglicherweise wieder einen Nachtest(wie bei der 7) mit aktuellen Spielen, aktuellen Treibern, in dem man möglicherweise dann auch noch mal die HDR-Performance mit testen könnte?
https://www.computerbase.de/2018-07/hdr-benchmarks-amd-radeon-nvidia-geforce/2/
Wäre interessant, ob das Problem bei aktuellen Spielen und aktueller Hardware weiter besteht.
Ich wäre da wirklich gespannt, ob die 6GB tatsächlich aktuell/und für die nächsten Jahre noch für hohe Settings FHD/WQHD taucht. Was man bei 300-350€ eigentlich erwarten würde.
@Stromverbrauch
Fänd es gut, wenn man im Spielebereich 2 Gametests zum Stromverbrauch macht.
Der erste mit Full-Power, den anderen mit FreeSync/Vsync und einem genügsameren Spiel. Bei vielen Spielen bleibt zumindest bei mir der Kühler nahezu unhörbar, das sind dann eher Spiele im Strategie-/Adventure-Bereich. Offensichtlich ist der Stromverbrauch dort entscheidend geringer als bei meinetwegen The Division(2).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Sennox
HighPerf. Gamer schrieb:
Ich weiss das ist jetzt bisschen offtopic. Und dafür möchte ich mich schonmal entschuldigen, aber was ich mich gefragt habe beim Radeon VII Release. Wäre es möglich die Vega 20 auch mit 3 HBM Stack's zu bauen ? Bzw. generell eine Gpu mit 3 Stacks, nicht unbedingt die Vega 20. Also 750 GB/s, 3072 Bit Speicherinterf. und 12 GB Grafikspeicher. Ich frage halt nur aus Interesse, aber ich würde sagen, das sollte doch schon möglich sein. Immerhin hätte man hier sich die Kosten auch sparen können. 12 GB sind auch ein Wort.

Klar ist das theoretisch möglich, schätze aber AMD hatte Gründe sowas nicht zu bauen. Was nicht möglich ist sind 8 GB weil nur 4GB Stacks hergestellt werden.

Ne andere Frage ist: wieviel günstiger wäre ne VII geworden wenn sie einen Stack HBM2 weniger hat? Denke nicht dass das den Kohl jetzt so extrem fett gemacht hätte beim Preis.
 
DocWindows schrieb:
Es geht icht um das konkrete technische Problem sondern um den Effekt. Versteh das bitte endlich.
Hast du mittlerweile eine Lösung für das Problem gefunden 8GB problemlos an 192 Bit anzubinden ohne zu bremsen, oder nicht?

Mal angenommen es ginge und ich würde 4 Speicherchips an 4 Controller und nochmal 4 an die restlichen 2 Controller anbinden, dann hätte ich 8GB an 192 Bit. 4 GB schnell 4GB langsam. -> Analogie zur GTX 970
Was hat das eine mit dem anderen zu tuen?
War die GTX660 (Ti) mit 2 GB Speicher abseits anderer Faktoren langsamer als die Modelle mit 1,5 oder 3 GB?
Ist die RTX Titan mit doppelt so viel Speicher pro Controller bedeutend langsamer als die 2080Ti?
Das wohl eher eine Frage des Speicher Controllers ob er mit der Misch Bestückung klar kommt.
 
  • Gefällt mir
Reaktionen: Luxmanl525 und Benji21
@Wadenbeisser Wenn du jetzt ernsthaft vergessen hast um was der Dialog ging, dann ist er hiermit beendet.

Ich wollte wissen wie 8GB ohne Leistungsverluste an 192 Bit angebunden werden können und du kommst mit 2GB Karten von annodazumal. Darauf hab ich echt keinen Bock mehr.

Schreib doch mal eine konkrete Konfiguration auf. 4x 1GB und 2x 2GB oder wie?
 
Zuletzt bearbeitet:
Hallo zusammen,

@ KlaraElfer

KlaraElfer schrieb:
Jup und Speichergröße korreliert nicht mit mehr Stromverbrauch. Ansonsten hätte die Quadro mit 48GB RAM ja nicht die gleiche TDP wie die Gamingvariante mit 11GB, die hat sogar die höhere TDP, wegen höherer Chiptaktraten.

Daß die Quadro die gleiche TDP wie die Gamingvariante hat, hat ganz andere Gründe. Du machst hier Klimmzüge, die wirlich teils Krachen. Mach dich doch bitte erst einmal richtig sachkundig. Vor allem vergleiche die entsprechenden Varianten erst einmal richtig miteinander, bevor du solche Aussagen tätigst.

@ Plastikman

Plastikman schrieb:
Man sollte wirklich mehr darauf hinweisen, dass die Effizienu durch den wenigen VRAM erkauft wird.

Ist Heute der Tag ungehemmter Phantastereien oder was? Daß die GTX 1660 Respektive GTX 1060 solch Effizient sind, hat wenig bis nichts mit dem "wenigen" VRam zu tun. Sondern liegt im besonderen in dem Chip selbst als auch der Pascal-Architektur als solcher begraben.

@ Wadenbeisser

Wadenbeisser schrieb:
Das wohl eher eine Frage des Speicher Controllers ob er mit der Misch Bestückung klar kommt.

Völlig richtig. Gar keine Frage.

@ Romanow363

Romanow363 schrieb:
Wenn die GTX 1160 Ti auf Level GTX 1070 ist, dann ist sie wie eine Neuauflage der GTX 980 Ti. Sogar gleich viel RAM (6GB).

Das ist Quatsch. Deine Sicht der Dinge bzw. deine Vergleichbarkeit ist da ziemlich getrübt durch die Einengung auf die reine Performance. Die Effizienz ist z. b. geradezu Explodiert, in Relation zum Stromverbrauch im besonderen. Ebenfalls ist die Architektur verbessert. Die Chips sind nicht vergleichbar. Egal wie man es dreht und wendet. Und nur auf die reine Performance die Dinge zu betrachten, ist ein großer Fehler.

So long...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: iceshield, Web-Schecki und Smartcom5
Vitali.Metzger schrieb:
Also nach 1-2 Jahren wenn die neuen Konsolen erscheinen kann man die Karte in die Tonne kloppen, da sie wegen den 6 GB VRAM komplett absaufen wird.

Ja, leider. Dummerweise betrifft das fast alle Mittelklasse-Modelle von Nvidia der vergangenen Jahre, ob man da jetzt die Spezial-Version mit 3,5 GB VRAM nimmt oder die mit 2 GB und so weiter... die sind schon jetzt unbrauchbar.

6 GB sind selbst Stand jetzt bei Games je nach Texturstufe zu niedrig, z.B. bei RE2.
Es ging zuletzt massiv nach oben.
Bei dieser Leistungsklasse und dem Preis sind 8 GB inzwischen Pflicht. Wir haben 2019.
Ehrlich gesagt wäre die Grafikkarte für mich sogar interessant gewesen, da ich genau in dem Bereich kaufe. Da hat Nvidia einen weiteren potentiellen Kunden verloren.
 
Chipflächenbasiert ist die Karte nach 2 Jahren ein Rückschritt und das insbesondere da 12 nm statt 16 nm benutzt wird. Der eigentliche Vergleichschip ist ja die 1080 (314 mm in 16 nm) und nicht die teildeaktivierte 1070, die von der 1660 TI (284 nm in 12 nm) so etwa erreicht wird.

Die Testüberschrift in Radeon 7 Sprech müsste etwa so lauten:

"Zu geringer Designfortschritt, zu wenig Speicherperformance, zu teuer aber wenig Stromverbrauch"
 
  • Gefällt mir
Reaktionen: RuhmWolf, Sun-Berg und Sennox
Zurück
Oben