Test GeForce GTX 1660 Ti im Test: Wie die GTX 1070 FE mit neuen Shadern und weniger Speicher

Jetzt musst du mir mal erklären was mein Laptop mit dem ich nach wie vor SC2, FFXIV und LoL spiele, mit deinem Ganeboy zu tun hat.

Soll wohl ein hirnloser Flame sein weil der eigene Tellerrand nur bis zum Regler very High reicht und mehr nicht.
 
Zuletzt bearbeitet:
Ich hätte wirklich gerne meine rx 570 durch eine potentere GPU im Mittelklassebereich der neuen Generationen ausgetauscht, aber die 6GB Vram sind für mich jetzt schon das K.O. Kriterium, da ich gerne modde und 6gb vram dafür einfach zu wenig sind. So wird es wohl eine vega 56 oder gtx 1070/ti. Schade, dass eine ansonsten wirklich gute Karte nicht mit 8gb Vram zu 250€ angeboten wird. Das ding wäre ein absoluter P/L hit.
 
  • Gefällt mir
Reaktionen: Unnu
Hd5m schrieb:
Oder man gibt sich einfach mal zufrieden mit dem was man hat.....

Aber das ist ja ein Unding in der heutigen Zeit🙄

Ja das geht auch. Ich behaupte nicht das Gegenteil.

Nur hat das nichts mit dem Thema zu tun.

edit: Oh, er hat seinen Post umgeschrieben und unterstellt flaming? Ich seh schon. Tschüss dann.
 
Zuletzt bearbeitet:
Was wäre daran ein hit, sind manche von den usern senil?, RX 480 8GB gab es damals schon um ca 230€
 
HighPerf. Gamer schrieb:
@devastor

Das weisst du, weil du CEO bei AMD bist ?

Ne aber ich kann durchaus Fakten zusammenzählen.

Der HBM 2 Speicher dürfte extrem teuer sein auf der Karte, siehe diverse Gerüchte und Zahlen wohl um die 380 Dollar für die 4 Stacks...dazu das teure VRM Layout der Karte siehe

und die Tatsache, das es im Prinzip eine HPC Karte ( Instinct MI50 ) mit nur leicht modifizierten Vega 20 und weniger Speicher ist, die wohl so nie für den Endkunden Markt gedacht gewesen ist.

Zumindest dürfte die Marge für AMD sehr sehr gering bei der Karte sein. Daher wohl auch die ziemlich bescheidene Verfügbarkeit.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Unnu und Vulture
Trotzdem bleibt die 7 im vergleich zur Konkurrenz, Schrott, wenn man hauptsächlich spielen will.
 
DocWindows schrieb:
...Ich kann in einer hypothetischen Zukunft, wo 8k Gaming verbreitet ist, zwar in FullHD die für 8k vorbereiteten Texturen laden, habe aber nichts davon. Ich muss aber trotzdem 16GB oder sogar 24GB Speicher auf der Karte haben (und bezahlen).

Wer spielt in einer Zukunft, in der "8k Gaming verbreitet (!!!) ist" denn noch in FullHD?
Und was interessiert mich diese Zukunft?
Die nächsten Konsolen wer sicherlich mindestens 16GB haben und die Hersteller werden dafür sorgen, dass man den Speicher auch füllt.
In dieser Zukunft wird 8k Gaming immer noch nicht verbreitet sein, aber 6GB VRAM werden schnell zum Flaschenhals. Davon gehe ich zumindest aus.
Ich habe selbst noch eine 980ti mit 6GB aus dem Jahre 2015. Anfang 2019 bringt Nvidia eine Grafikkarte auf den Markt mit der gleichen Performance und Anzahl VRAM auf den Markt. Das kann ich einfach nicht gutheißen.
 
  • Gefällt mir
Reaktionen: Herr Melone, Smartcom5, Jake Grafton und 2 andere
Für eSport Titel ist die Grafikkarte echt interessant da man dort vermutlich auch in 3 Jahren noch mit 6 gb klar kommen wird ^^
 
Irgendwie beschleicht mich das Gefühl der puren Stagnation, im Bereich Leistung, im Grafikkartenmarkt.
Einzig die 2080/ti und Radeon VII bringen "mehr", dafür will man aber auch "viel mehr" an Kohle haben.

Wer jetzt kein Enthusiast ist und eine 1070/80 Vega56/64 im Gehäuse stecken hat sieht doch, wenn es nach der Vernunft geht, eigentlich gar keinen wirklichen Grund zum Aufrüsten.
 
  • Gefällt mir
Reaktionen: Unnu, Herr Melone, Chaos Theory und 3 andere
Unglaublich wie die Karte die 590 zerstört - endlich mal wieder eine ordentliche Karte für 300 Euro.
 
  • Gefällt mir
Reaktionen: TasmTeufel
Rock Lee schrieb:

Danke, dachte schon ich hätt nen guten Deal verpasst. Bau ja ab und an Vegas aus Deals von mydealz bei Freunden ein, allerdings war und ist für mich die Air einfach nen No-Go mit ~52db. Da muss es scho ne "Gute" Custom sein :)
 
  • Gefällt mir
Reaktionen: Rock Lee
Hd5m schrieb:
Trotzdem bleibt die 7 im vergleich zur Konkurrenz, Schrott, wenn man hauptsächlich spielen will.

Welche Gründe der Selbsterfahrung veranlassen dich zu dieser doch etwas kuriosen Meinung?
UV oder UV + OC == 2080 bei aktuell noch überhöhten Preisen, aber 16 GB VRAM.

Attraktiver geht es doch kaum für Enthusiasten wie wir es (hier in einem Technik-Forum) sind, oder?

Zu teuer ja ... das ist aber jede Karte in diesem Leistungsbereich.
 
  • Gefällt mir
Reaktionen: Sennox
SavageSkull schrieb:
mir ist der Strom verbrauch wegen der Lautstärke wichtig. Ich bevorzuge kleine Gehäuse die kein Platz für Monster Kühler haben und eben keine 10 Lüfter haben. Trotzdem möchte ich nicht die Lautstärke eines startendes Düsenjägers haben. Und da sind 20-30W mehr oder weniger schon ein deutlicher Unterschied.

also ich habe nen raijintek metis als 2. rechner, und dadrinne werkelt nen 1500X + RX580, die karte läuft auf 1366/4600 und 1.0V was in 120-130W verbrauch resultiert(stock warens 200-210W bei 1366/4000) und sehr leise ist(war vorraussetzung, da das ding im schlafzimmer steht), vega lässt sich normal deutlich besser undervolten als polaris, heisst die V56 lässt sich ziemlich sicher auf ebenfalls 120W drücken, ohne leistungseinbussen bzw. da man den HBM ja takten kann, ein wenig mehrleistung ggü. default... da macht nichtmal mehr der blower der FE lärm, wenn man die lüfterkurve zusätzlich anpasst.

und wie man der signatur entnehmen kann, habe ich beide extreme... super silent und "eigentlich egal wie laut"...
 
  • Gefällt mir
Reaktionen: Unnu
DocWindows schrieb:
Hast du mittlerweile eine Lösung für das Problem gefunden 8GB problemlos an 192 Bit anzubinden ohne zu bremsen, oder nicht?

Das ist halt das Problem vom Hersteller, wenn er sich für ein 192-Bit Interface entscheidet, weil er wohl das Layout vom TU106 der RTX 2060 übernehmen will (bei dem die 6 GiB genauso unangebracht waren).

Wenn der nächste Golf GTI nur 70PS hat, weil VW halt ne kleinere Kupplung einbauen wollte um Geld zu sparen, dann ist das genauso wenig Schuld des Verbrauchers.
 
  • Gefällt mir
Reaktionen: Herr Melone, HageBen, Sennox und 3 andere
Web-Schecki schrieb:
Wenn der nächste Golf GTI nur 70PS hat, weil VW halt ne kleinere Kupplung einbauen wollte um Geld zu sparen, dann ist das genauso wenig Schuld des Verbrauchers.

Das sieht man selten, ein funktionierender Autovergleich. ;)
 
  • Gefällt mir
Reaktionen: Cpt.Willard und Smartcom5
Plastikman schrieb:
Man sollte wirklich mehr darauf hinweisen, dass die Effizienz durch den wenigen VRAM erkauft wird. Meiner Meinung nach wird das zu wenig betont. Effizienz wird übermäßig positiv bewertet gegenüber dem VRAM. VRam frisst aber eben viel Strom.
Kann ja gar nicht, wie uns @KlaraElfer erst erklärt hat!
KlaraElfer schrieb:
Smartcom5 schrieb:
Eine ganze Menge!
Deswegen versucht ja nVidia immer wieder höchst erfolgreich mit verringerter Speicher- und damit Leistungsaufnahme künstlich die Effizienz klein zu rechnen – bedauerlicherweise oftmals mit großem Erfolg.
Das hat gar nichts damit zu tun. Verdoppelung des Speichers bei gleichem Interface kostet nur innerhalb der Messungenauigkeit mehr Strom und erhöht den Verwaltungsaufwand der GPU.
Per se kostet mehr V-ram aber nichts. Heißt, die 1660 Ti könnte auch 12GB haben und der Verbrauch bliebe identisch.
Würde ein Mehr an VRAM jedoch wie von ihm hier behauptet nicht mit signifikantem Mehrverbrauch einhergehen, hätte man HBM als GDDRx Alternative gar nicht erst entwickelt. Die verhältnismäßig hohe Leistungsaufnahme von GDDR5 ist einer der Hauptgründe, weswegen HBM überhaupt existiert – um eben den Stromverbrauch von VRAM zu reduzieren.

Entsprechend unmittelbar vergleichbare Beispiele wären da etwa die RX 480, welche mit 4- wie auch 8 GByte VRAM daherkamen – allerdings muß man hier präzise zwischen den Custom-After-Launch 4GByte-Reviews mit tatsächlich nur 4 GByte und den Presse-Karten unterscheiden, welche lediglich per BIOS 4 GByte an VRam deaktiviert hatten und ansonsten physikalisch 8 GByte auf dem PCB nutzten (welcher dann auch per Soft-mod freizuschalten ist).

Stromverbrauch von GDDR5 Grund für HBM-Entwicklung
GDDR5 hat und verursacht signifikante Stromaufnahme (im einzelnen deren Controller…), deswegen schrieb selbst AnandTech seinerzeit im Vergleichartikel zwischen GDDR5 und HBM ja nicht ohne Grund, daß (laut AMDs eigener Aussage) bei der Stromaufnahme beispielsweise einer R9 290X bei einer TDP von 250W zwischen etwa 37,5W und 50W auf den Speicher an und für sich entfallen. 15–20% des Gesamtverbrauchsbudgets also.

„The current GDDR5 power consumption situation is such that by AMD’s estimate 15-20% of Radeon R9 290X’s (250W TDP) power consumption is for memory. This being even after the company went with a wider, slower 512-bit GDDR5 memory bus clocked at 5GHz as to better contain power consumption. So using a further, faster, higher power drain memory standard would only serve to exacerbate that problem.“
— Ryan Smith, AnandTech, 19. Mai 2015 · „AMD Dives Deep On High Bandwidth Memory - What Will HBM Bring AMD?

GDDR6 35% weniger Leistunsgaufnahme
Zwar setzt die GTX 1660 Ti mit GDDR6 statt GDDR5 auf vergleichsweise sparsameren Speicher, allerdings trägt dieser mit 'nur' um 35% verringerter Leistungsaufnahme trotzdem noch signifikant zur Gesamt-TDP bei. In diesem Falle wären das bei einer R9 290X noch immer 24,36W–32,5W – unübertaktet und innerhalb der Referenz-Frequenzen wohlgemerkt, macht noch immer 9–10% der Gesamt-TDP. Entsprechende Zahlen kamen seinerzeit direkt von Samsung, wurden also nicht redaktionell ermittelt und dürften damit ziemlich präzise der Wahrheit entsprechen.

Ergo kann man selbst den Stromverbrauch von GDDR6 nicht als praktisch nicht existent abtun, wenn er im besten Fall mit bestmöglichen Presse-Zahlen (Spec-sheets geben stets das Optimum an) ohne Overcklocking bereits minimum 10% des Gesamtverbrauchs einer entsprechenden Karte ausmacht. Warum sich dieses dämliche Gerücht seit Jahren so hartnäckig hält, daß größere VRAM-Austattungen nicht zur erhöhten Leistungsaufnahme eine Grafikkarte beitragen, verstehe Wer will … Es ist und bleibt schlicht Nonsense.

deo schrieb:
Wie kann es sein, dass 2GB mehr RAM in der Spitze zu über 80 Watt Mehrverbrauch führen können? Der RAM müsste ja verglühen.
Sagt doch Keiner. Ist vielmehr die Kombination aus besserer Fertigung (16 vs 12nm) mit kleinerem Speicherausbau.

Fertigung und geringer VRam-Ausbau verbessert Effizienz
Es bleibt zumindest für mich dabei, daß die verbesserte Effizienz der GTX 1660 Ti zum größten Teil aus der kleineren Fertigung herrührt und obendrein mit geringer Speicherausstattung gegenüber der GTX 1070 mit bloß 6 statt 8 GByte und damit kleinerem Speicher-Interface (192 statt 256 Bit; 8×32 Bit statt 6×) künstlich geschönt wird.

Hätte nVidia die GTX 1070 auch mit 6 GByte herausgebracht, sähe man, wie sehr der verringerte VRAM-Ausbau mitsamt kleinerem Speicher-Interface und damit einem um zwei DRAM-Controllern kastriertes PCB um den entsprechenden Faktor weniger Stromaufnahme aufzeigt.

Custom-Designs der GTX 1660 Ti mit 8 GByte unwahrscheinlich
Weil dies aber nVidia seit Jahren bewußt nicht tut, um eben diesen Umstand der unmittelbaren Vergleichbarkeit gezielt zu verschleiern, fällt es nur den Wenigsten auf. … und dies dürfte auch einer der Gründe sein, weswegen die GTX 1660 Ti wahrscheinlich niemals mit 8 GByte erscheinen wird. Denn dann sähe man ja, daß ein nicht unerheblicher Teil der TDP aus der zuvor kleineren Konfiguration des Speicher-Interfaces mit bloß 6 statt 8 GByte herrührte.


In diesem Sinne

Smartcom
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: LDNV, Unnu, Herr Melone und 4 andere
DrFreaK666 schrieb:
Wer spielt in einer Zukunft, in der "8k Gaming verbreitet (!!!) ist" denn noch in FullHD?

Hypothetisch! Um den Punkt klar zu machen.

DrFreaK666 schrieb:
Die nächsten Konsolen wer sicherlich mindestens 16GB haben und die Hersteller werden dafür sorgen, dass man den Speicher auch füllt.

Na klar. Wir wissen ja alle dass Konsolen niemals auf Kante genäht sind weil der Verkaufpreis der Kundschaft völlig egal ist.
Und dann reißen am PC die 2GB mehr Speicher natürlich alles raus, obwohl die Konsole immer noch doppelt soviel davon hat. Realitycheck please!

Web-Schecki schrieb:
Wenn der nächste Golf GTI nur 70PS hat, weil VW halt ne kleinere Kupplung einbauen wollte um Geld zu sparen, dann ist das genauso wenig Schuld des Verbrauchers.

Wir befinden uns hier aber weder preislich noch von der angedachten Leistung in der Golf-Reihe auf GTI-Niveau. Dafür gibt es andere Karten.

Neben dem "Problem des Herstellers" haben wir auch noch ein Problem des Kunden. Denn dieser erwartet anscheinend GTI-Leistung zum Preis eines Lupo. Für diese Ansprüche gibt es andere Hersteller, die aber auch wieder mit anderen Dingen zu kämpfen haben.
 
Zuletzt bearbeitet:
devastor schrieb:
Ja und verdient an den Karten keinen Cent.
Aber hält Marktanteile und grätscht empfindlich in Nividias Hochpreisstrategie rein. Ohne die 7er wäre die Umsatzwarnung vermutlich weniger desaströs ausgefallen. Mag sein, dass AMD keine Kohle mit der Vega 7 verdient, aber ein wichtiges Produkt ist sie dennoch für AMD, um die Zeit bis Navi zu überbrücken. In die gleiche Kategorie fällt auch die drastische Preissenkung der Vega 56 Air.
 
Inxession schrieb:

Da ist diese Neutralität eben eher dem NDA geschuldet. Tief im Inneren kann man die Karte, gerade als Spezialist wie du, keinesfalls gut heißen.

Aber hier sieht man wieder ... flächenübergreifend wie das NDA wirkt.
Keine negative Headline erlaubt, dagegen alle OEMs auf den Sozi Plattformen dazu gegängelt möglichst viel PR für die Karten zu schalten. Ich erinnere gern nochmal an die Headline der Radeon VII "Zu laut, zu langsam ..."
Gottlob scheine ich nicht der Einzige zu sein, der noch klaren Verstand besitzt. Danke dafür!
Inxession schrieb:
Ähnlich bei Intel ....
Wieso traut sich keine renommierte Seite einen Test Artikel zu bringen, der die Leistung, NACH Aktivierung aller Sicherheitslücken-Patches, zeigt? Gerade hier, sind schon die Beziehungen zu den Großen deutlich wahrnehmbar.
Da darf ich nur daran erinnern, daß ComputerBase meines Wissens bis zum heutigen Tage bezüglich Meltdown & Spectre eigentlich alles vollständig und unreflektiert unter den Tisch fallen läßt. Neutralität oder Offenheit gibt es da schlicht nicht. Sämtliche unliebsamen Fragesteller werden gekonnt ignoriert.

Angaben darüber, ob entsprechende Patches installiert wurden – und wenn ja welche im einzelnen (mit MS‘ KB-Nummer!) – sucht man in der Regel vergebens. In jedem diesbezüglichen Test wird wiederholt von zig Lesern danach gefragt, Antworten gibt es wie immer keine – da herrscht dann die Methodik des Merkel'schen Aussitzens vor.


In diesem Sinne

Smartcom
 
  • Gefällt mir
Reaktionen: TechFA, Sennox, Balikon und 2 andere
Zurück
Oben