News Nvidia Turing: GeForce RTX 2060 mit 1.920 Shadern und 6 GB Speicher

xexex schrieb:
Ich höre nur, wenn Navi kommt, wenn die neuen Konsolen, wenn AMD..... Wenn, vielleicht und möglichwerweise sind keine Fakten sondern bestenfalls Wunschdenken.

Das ist keine Theorie, sondern die Realität. Gewöhne dich daran. Du stellst das wirklich so hin, als würde das alles nicht passieren. :rolleyes:
Hier haben mindestens 3 User auf den letzten Seiten auch alles dazu gesagt, Links gepostet, alle Modelle genannt, etc... wenn du es nicht wahr haben willst, dann kann ich dazu auch nix machen. Die Modelle aus der Vergangenheit und Gegenwart sind klar benannt worden, sowie auch Benchmarks. Auch ist absehbar und zwar eindeutig, dass schon nächstes Jahr 6 GB VRAM eng werden. Da spielen noch weit mehr Faktoren rein, als du hier eben aufgezählt hast. Der VRAM Verbrauch steigt massiv.
 
Calypso26 schrieb:
man man man USB-Kabeljau. Sieh es doch einfach mal ein, dass es genügend Leute gibt, für die eine 2060 eine Enttäuschung wird und dass diese gegen Dein so heiß geliebtes nvidia reden werden.
Komisch. Ich habe nirgendwo geschrieben, daß ich die Karte gut finde.
(Wie auch? Leistung kann zwar abgeschätzt werden, aber Preis ist total unbekannt.)
Und wie kommst du darauf, daß ich Nvidia mag?
Ich habe nicht mal geschrieben, daß 6GB auf jeden Fall genug sind. Nur scheinst du ja felsenfest davon überzeugt zu sein, daß 6GB die Karte total kastrieren und der Preis deshalb auf jeden Fall zu hoch sein muss.
Was anderes würden nur von NVidia bezahlte Fanboys behaupten.

Mir geht dieses unsachliche Gebashe so krass auf die Nüsse.
Alles, was ich wollte war, daß jemand mal aufzeigt, daß 6GB bei einer Karte wie der RTX 2060 viel zu wenig sind. So wird das von einigen hier ja dargestellt.
Dann kamen 2 Beispiele, die keine sind, und das war's bislang. 6GB sind auf jeden Fall zu wenig, aber keiner kann erklären, wieso. Komisch.


Calypso26 schrieb:
Oder schreib wenigstens, dass Du auch einer der bezahlten nvidia-Forenhyper bist, ...
Und das ist eh der Knaller.
Wenn es hier ein Problem mit Fanboys gibt, dann ganz sicher bei AMD. Bei jeder News zu irgendeiner Grafikkarte oder CPU kommt jedes Mal direkt eine Herscharr an Usern, die jetzt unbedingt erklären müssen, wieso AMD ja viel besser ist und NVidia und Intel ganz böse Großkonzerne. Und alle, die bei denen kaufen sind uninformiert, dumm oder Fanboys.
Und jedes mal wird total emotional reagiert, wenn es jemand auch nur wagt, zu schreiben, daß er sich für den "Feind" entschieden hat. Da kommen dann oft so selten dämliche Unterstellungen, wie von dir jetzt. Meint man das dann eigentlich ernst, oder will man nur Dampf ablassen? Würde mich echt mal interessieren.

Und dann sind da noch die Leute, die zwar auch Intel/Nvidia gekauft haben, aber jedem versichern, daß sie sich schon sehr auf das nächste Ding von AMD freuen und unbedingt umsteigen wollen. Denn man möchte ja nicht negativ auffallen ...

Das ist hier dermaßen lächerlich mittlerweile, daß man stellenweise echt das Gefühl hat, es würden nur noch 12-jährige Kinder im Forum schreiben.
 
  • Gefällt mir
Reaktionen: Xidus, RD78, Organix und 4 andere
Chismon schrieb:
Nee klar, weil man ja nVidias momentan noch relativ popelig ausgereiztes/in BF V bewusst herunter geschraubtes (um eine RTX 2070 damit einigermassen fluessig in Full HD laufen lassen zu koennen) RT-Raytracing auch unbedingt braucht (jetzt und in der Zukunft), um Spielspass zu haben, oder was :rolleyes:?

Wenn der Speicher gar nicht mehr reicht, dann ist wirklich Ende im Gelaende, RT-Raytracing braucht man nicht notwendiger Weise zum spielen, sondern es ist bisher nur ein Grafikeffekt-Gimmick fuer gerade einmal ein Spiel (BF V) und zukuenftig vielleicht ein weiteres atmosphaerisches Grafikeffekt-Feature, mehr aber auch nicht.

Wer kauft denn wissend so eine 6 GB arme "Bauerfaenger" RTX 2060 Grafikkarte in 2019, wenn man mit der (vermutlich dann unwesentlich teureren) GTX 1070Ti, ganz zu schweigen von einer guenstigeren RX Vega 56, (da beide mit 8GB kommen) was die Langlebigkeit angeht die vermutlich deutlich besseren Karten bekommt?

Wer auf AMDs/RTGs nahende in 7nm gefertigten Navi (10) Mittelklasse-GPU (ob nun als RX 3070 oder RX 3080) etwas spaeter in 2019 warten kann und nicht nVidia-markengeblendet ist, hat eindeutig einen Vorteil, und dann kraeht vermutlich kein Hahn mehr nach einer von vornherein unterdimensionierten/RT-Raytracing-beschnittenen RTX 2060.

Die RTX 2060 Karte ist mit Erscheinen in 2019 schon speichermengentechnisch veraltet und nur eines, preis-leistungstechnisch ein totaler Reinfall (genauso wie die vorherige "Bauernfaenger" GTX 1060 mit 3 GB zum Marktstart), auf den aber leider - wie der Name schon andeutet - wieder einige hereinfallen werden.

Naja, notfalls wird nVidia - wenn der Absatz wie bei den anderen Turing Modellen aehnlich wenig rosig verlaufen wird - die Chips als Mobilvarianten in diversen Notebooks verkloppen, los werden sie die Chips allemal.

Und von der Compute-Leistung der beschnittenen nVidia-CPUs brauchen wir auch nicht zu reden (nicht jeder spielt nur mit der Grafikkarte), wenn Du Dich schon anschickst wegen des Verbrauchs trollen zu wollen (da Du wahrscheinlich zu den GPU-Kaeufern gehoerst, die beim Kauf hauptsaechlich Strom sparen wollen oder Dir nur alles gerne passend/"schoen" schreibst) und Undervolting wohl an Dir vorbei gegangen sein duerfte.

Natuerlich hat sich AMD/RTG im GPU-Bereich nicht unbedingt mit Ruhm bekleckert in den letzten Jahren, aber nVidia in Sachen Kundenpolitik und Preisgestaltung noch deutlich weniger und die RTX 2060 wird mit Sicherheit kein lohnendes Modell werden (aber wie schon zuvor trefend erwaehnt, werden evt. lupenreine/beinharte nVidia-Fans mit begrenztem Budget wohl unterhalb von 400 Euro evt. keine andere Wahl als die RTX 2060 haben, um Ihr Geld bei nVidia in 2019 anzulegen :p).
Ergänzung ()

Also zunächst ging es rein um das Wort "Zukunftsfähigkeit"
Die aber ist bei Hardware nie gegeben... Hardware von heute für Software von heute.
Alles andere bleibt Glaskugelleserei.

Ebenso ist deine Zukunftsaussicht bezgl. der RX 3070 / 3080 nichts weiter als Glaskugelleserei.
Erinnern wir uns noch an die RX480?... Hölle war das ein Hype bevor die Karte tatsächlich erschienen ist.
Und was war? Ein totaler Krüppel... Sie konnte der GTX 1060 das Wasser nicht reichen und die Energiewerte waren unterirdisch. Die RX 580 war dann schon einmal etwas besser... auch die Energiewerte gingen deutlicher zurück aber für einen Glasklaren Sieg reichte es dann immer noch nicht. Nun haben wir die RX 590 die leistungstechnisch der GTX 1060 definitiv vorzuziehen ist, aber bei der Energieaufnahme der GTX 1060 auch hier mit dickem Abstand das Wasser nicht reichen kann.
Soviel zum Thema Papiertiger und Vorankündigungen! :evillol:
Wie ich bereits schrieb. Hätte NV die GTX 1060 auch noch 2x neu aufgelegt mit optimierter GPU und schnellerem Speicher, würde auch eine RX 590 mit 8 GB heute nicht dagegen anstinken können.
Und dazu muss niemand von uns ein Prophet sein.
Daher sollte man auch ganz geschmeidig bleiben mit Zukunftsprognosen.
Die endgültigen Specs. sind nicht bekannt was die RTX 2060 angeht... weder die Speichergröße, noch deren Bandbreite noch sonst irgendetwas.
Und selbst wenn es bloß bei 6 GB bleiben würde, eines sollten alle Lager nicht vergessen.
Die Unterstützung der Spielehersteller!
Ich denke Du weißt was ich damit meine ;)
 
  • Gefällt mir
Reaktionen: Organix
RichieMc85 schrieb:
Die 290X war ein Eigendesign von Sapphire, aber das kann ich wohl noch 3 mal schreiben. Das war von Amd nicht so geplant sieht man auch daran das keine weiterer Partner sowas anbietet.

Die von dir genannten 600er und 700er Serie hatten wenig Ram, aber genug für die damalige Zeit. Die Karten sind mittlerweile Uralt und selbst mir doppelten Speicher nutzlos. Aber redet euch nur eine eure Amd Karten sind zukunftsfähig.

Un deinen Gamestar Test nehme ich eh nicht erst. im PCGH Leistungsindex ist die 980 mit 1,17 GHz 2% hinter der RX580 die schon max OC ist. Mit realistischen 1,5 Ghz auf der 980 sieht die tolle Mittelklasse von AMD kein Land.

Mordors Schatten ist 4 Jahre alt und damals gab es keine einzige Karte die mehr als 6GB hatte. Und für Star Citizen so eine Karte zu nutzen halte ich für sehr gewagt.

In der Preisklasse machen 8 GB einfach keinen Unterschied und selbst wenn Reden wir hier von 3 oder 5 FPS mehr.

Am Ende wird sich die 2060 sowieso mehr verkaufen als alle Vegas zusammen. AMD/ATI hat seinen guten Ruf in den letzten Jahren einfach kaputt gemacht. Wo die 5870 oder 7970 noch Maßstäbe gesetzt haben, glänzen Sie heute nur noch mit Brechstangen Design. Eure tolle Vega 64 verballert mehr Strom als meine fast doppelt so schnelle 2080Ti.

AMDs Grafikabteilung ist doch einfach nur noch ein Witz. Und dann feiern die Leute ein RX 590. Ein technisch 2,5 Jahre altes Design mit 250 Mhz mehr Takt. In der Zeit hat Nvidia 2 Generation gebracht.

Jetzt vergleiche doch einfach mal wie sich die gtx 680/670 gegen eine HD 7970/7950 schlägt oder die gtx 780 gegen die r9 290 von mir aus auch nur die 4Gb Version.
Ganz schlecht. Aus wenigen Prozenten Vorsprung für Nvidia, wurden etwa 25% für AMD, nicht weil AMD so toll ist, sondern weil sie nicht am Speicher geizen.
Ob AMD jetzt 4Gb für die Karte vorgesehn hat ist nicht sonderlich wichtig, es gibt noch eine mit 8Gb und damit ist diese Diskusion zu ende oder sehe ich das falsch?
Es geht beim Speichermangel nicht um Fps, sondern Frametimes.....
Des weiteren hab ich Vega niemals als gut bezeichnet. Vega war nie konkurrenzfähig. Auch die rx 590 ist, da ihr Speicher den gleichen Takt wie der der rx 480 hat kaum besser als diese, bei schlechterer Effizienz.
AMD hat in den letzten Jahren sehr wenig geliefert. Das ist richtig.
Aber wozu auch? Die gtx 1060 hält man gut in Schach und durchs minig hat man auch gut verdient.
Die meisten Spieler kaufen eh auch, wenn AMD gleich auf liegt Nvidia. Man siehe HD6870, HD7970, r9 290 (auch die Effizienz hat sich hier kaum unterschieden)
Es ging mir hier darum zu zeigen, dass Nvidia immer wieder zu wenig Speicher verbaut (seit vielen Generationen inzwischen) und dass das sehr ärgerlich ist, da Speicher wie bereits erwähnt sehr günstig ist und nicht nachgerüstet werden kann.

Mit deiner kindischen Argumentation über Verkaufszahlen willst du dabei was zeigen/beweisen?
Doch es gab die r9 290x von Saphier:) zu Zeiten von Mordors Schatten und kurz nach Erscheinen des Spiels auch die r9 390 (x).
Herzlichen Glückwunsch du hast 1300€ für eine Grafikkarte ausgegeben, die 54-75% schneller ist als eine für 400-500€. Ich bin beeindruckt.

Fals du jetzt wieder wegen ein paar Prozenten diskutieren willst:

https://www.computerbase.de/thema/grafikkarte/rangliste/#diagramm-performancerating-3840-2160
 
  • Gefällt mir
Reaktionen: navi.
USB-Kabeljau schrieb:
Keine Ahnung, was Raytracing damit jetzt zu tun hat.
Mit einem Artikel über die RTX 2060?
Seeehr viieeeel ;)!
Ergänzung ()

USB-Kabeljau schrieb:
Dann kamen 2 Beispiele, die keine sind, und das war's bislang. 6GB sind auf jeden Fall zu wenig, aber keiner kann erklären, wieso. Komisch

Dazu hatte ich z.B. mich gestern oder vorgestern schon geäußert, nachdem so viele geschrieben/argumentiert hatten, die Karte sein schließlich nur für Full-HD gedacht: Es gibt auch Games, bei denen es weniger auf hohe FPS ankommt, wo man durchaus auch mit der "Mittelklasse" in 4k vollen Texturen spielen kann, vorausgesetzt der RAM reicht (oder man nimmt nachladen in Kauf) Bei AMD kostet diese Möglichkeit ~179 €, bei nvidea aktuell weit über 300 und wenn die 1070 ausverkauft ist über 400 €.

Das ist der eine Punkt für mich, der andere ist eben die Zukunftsfähigkeit, dass eben Konsolen demnächst vielleicht auch 8 GB bekommen könnten und sich auch die Spiele dann weiterhin zu mehr RAM entwickeln.
 
Zuletzt bearbeitet:
dalaidrama schrieb:
Das ist der eine Punkt für mich, der andere ist eben die Zukunftsfähigkeit, dass eben Konsolen demnächst vielleicht auch 8 GB bekommen könnten und sich auch die Spiele dann weiterhin zu mehr RAM entwickeln.

Die Konsolen haben 8 GB.
Die Next-Gen wird deutlich mehr haben. Könnte mir sogar eine Verdoppelung vorstellen, kommt darauf an was Navi nächstes Jahr als Standard ausruft. Jedenfalls hat selbst Nvidia im High-End Bereich bereits 12 GB VRAM verbaut.
 
  • Gefällt mir
Reaktionen: dalaidrama
USB-Kabeljau schrieb:
Dann kamen 2 Beispiele, die keine sind, und das war's bislang
Moment mal. AC:O war ein Beispiel dafür, dass heute 4 GB VRam zu wenig sind, dass du einfach mit der Begründung schwachsinnige Settings abgetan hast. Für jemanden, der hier die ganze Zeit Fakten verlangt, ist das eine ziemliche schwache Argumentationsgrundlage.

Zu behaupten, 6 GB Ram seien in 2 Jahren nicht mehr genug ist genauso spekulativ, wie die Behauptung, dass sie definitv ausreichen. Mit 8 GB hat man dieses Risiko aber definitiv nicht und ist damit unabstreitbar ein Vorteil bzw. ein Kritikpunkt für die 2060.

Mag ja sein, dass die Leistung und der Preis dafür entsprechend fair ist im Endeffekt. Wenn wir aber quasi eine 1070 mit weniger VRam zum gleichen Preis bekommen, dann bekommen wir als Kunde weniger als zuvor. Und das kann wirklich keiner mehr schönreden
 
  • Gefällt mir
Reaktionen: Chismon, Cpt.Willard und navi.
dalaidrama schrieb:
Die Grafik zeigt aber nicht den Grafikkartenmarkt sondern höchstens - wenn die Zahlen stimmen (Quelle?) - mit welchen Karten die Leute spielen ö.ä.
Sonst hätte vor Allem Intel mit ihern iGpus in fast jedem verkauften Prozessor einen deutlich höheren Anteil (und AMD schätze ich auch; sorry, ist mir jetzt zu spät zum googeln)
xexex schrieb:
Die Quelle ist natürlich Steam.
https://store.steampowered.com/hwsurvey

Intels iGPUs haben zwar eine breite Verwendung in Büro-PCs, deren Verwendbarkeit zum Spielen ist jedoch derzeit eher dürftig. Intel hatte früher durchaus einen wesentlich höheren Marktanteil, da man den GPU Teil der CPUs aber jahrelang nicht weiter aufgebohrt hat, ist dieser stark gesunken.

Ich bin mir nicht sicher, ob du mich da richtig verstanden hast, es ging mir darum, klarzustellen, dass die Grafik eben nicht wie du schreibst den Grafikkartenmarkt abbildet, sondern lediglich wie häufig bzw. wie lange die Leute bei Steam mit welcher Karte spielen (oder eingeloggt sind?). Ich z.B. habe im letzten Jahr deutlich häufiger mit Intel HD-Grafics (ja, ich weiß, was das ist) ;) gespielt als mit AMD, weil ich eben gern vorm Einschlafen ein paar Züge Civ mit dem Laptop mache. Das taucht dann entsprechend so in der Statistik auf. Jetzt mache ich das nicht mehr, weil der Bildschirm vom Laptop Aussetzer hat und somit ändert auch dies wieder die Steam-Statistik. Meine 4 Wochen alte AMD-Karte hingegen war bis jetzt erst einmal bei Steam zum Testen, aber diese Häufigkeit könnte sich z.B. wenn ich Urlaub hab auch wieder "positiv" ändern.
Wenn du (oder jemand anders) z.B. mit seiner nvidea Karte 24/7 bei Steam online b/ist, dann hab ich auch nix dagegen, wenn du dir nach den hier ständig propagierten 1-2 Jahren Nutzung eine neue Karte kaufst - so wie nvidea es sich von dir wünscht: Sei es weil dann wieder mehr Speicher "in" ist oder "Rayspaceing" veröffentlicht wird
Ich hingegen spiele seltener, kalkuliere meine Karte länger, brauche weniger FPS und bessere Texturen und ab und zu auch mal ne andere Berechnung seitens meiner Karte und bin immernoch der Meinung, dass viele AMD-Karten "besser" altern - trotz eurem ständigen "aber die 980 gegen die 580" - das ist doch ne ganz andere Kategorie und Preisklasse :o ... die Fury ist auch schneller als die 580, wenn du eben bei den Einstellungen drauf achtest, dass du den Speicher nicht ausreizt...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: navi.
@Revan1710
Ok. Wenn du das Spiel mit instabilen 30fps spielen möchtest, hast du einen Punkt.
Ansonsten frage ich mich immer noch, wo der Test ist, der zeigt, daß bei Settings für 60fps auf einer GTX 980 der RAM nicht ausreicht.

Revan1710 schrieb:
Zu behaupten, 6 GB Ram seien in 2 Jahren nicht mehr genug ist genauso spekulativ, wie die Behauptung, dass sie definitv ausreichen. Mit 8 GB hat man dieses Risiko aber definitiv nicht und ist damit unabstreitbar ein Vorteil bzw. ein Kritikpunkt für die 2060.
Ganz richtig.
Wie hoch dieses Risiko jedoch ist, hängt für mein Verständnis nach wie vor in der Luft. Und da wir die Preise und konkrete Leistung der Grafikkarte noch nicht kennen, kann auch niemand sagen, welche Karte jetzt der bessere Deal sein wird.

navi. schrieb:
@USB-Kabeljau
Vielleicht liest du nochmal deine Beiträge von vorne durch und fragst dich mal wie neutral das ist. Das lustigste ist du präsentierst dich hier als vermeintlicher Einzelkämpfer ...
Du hast es immer noch nicht verstanden.
Ich kämpfe nicht und ich habe hier auch kein Pferd im Rennen.

Und daß ich nicht der Einzige hier bin, der nicht völlig verblödet alles nachplappert, was er irgendwo mal in einem Forum gelesen hat (Stichwort: Speicherkrüppel), ist mir auch klar.
 
  • Gefällt mir
Reaktionen: Xidus und Organix
Gerade Single-Player Games wie AC:O bieten sich doch an, mit nur 30 fps zu Spielen und dafür in hoher Bildqualität. Wenn wirklich 60 FPS dein Minimum ist, dann kannst du schon für FHD alle Karten unter einer 1080 Ti verbrennen.

Außerdem kannst du dein Szenario doch ganz einfach nachstellen: Nimm dir eine Karte wie die 580 oder die 1060
und verringere diverse Details soweit bis du deine 60 Fps hast (außer Texturqualität und Auflösung).
Nimmst du jetzt deine 970 oder 980 und machst das gleiche, was fällt dir wohl auf? Ganz genau, es sind immer noch keine 60 FPS

Hier auf stur zu stellen und ein Beispiel zu fordern, das genau deinem Wunschszenario entspricht führt doch nirgendwo hin, aber um das Prinzip zu verstehen, sollte das eigentlich auch nicht notwendig sein.
 
  • Gefällt mir
Reaktionen: navi.
Revan1710 schrieb:
außer Texturqualität

Wessen Wunschszenario? Mal ehrlich, der Großteil der Kaufer wird nicht mit 30fps/Mittel nur Texturen Ultra spielen. Da wird, wenns nicht mehr ordentlich läuft, einfach alles erst auf High reduziert und dann irgendwann auf Mittel.
Die Karte hat mit 6GB (wenn sie denn 6GB hat) vermutlich zu wenig VRAM, aber nicht weil es Stand heute 3-4 Spiele gibt, in denen 6GB nicht mehr für Ultra Texturen in 1440p (!) ausreichen, sondern weil eines der großen Features der Karte, nämlich Raytracing, viel mehr VRAM bräuchte.

Zum Konsolenvergleich. Eine Xbox One X hat 12GB shared Memory. Davon kann ein Spiel 9GB nutzen. Das heißt, ein Spiel hat für RAM + VRAM nur 9GB zur Verfügung. Da werden wohl kaum 8GB davon für Texturen draufgehen.

Selbst wenn der Nachfolger 16GB hat, bleiben dem Spiel dann 12-13GB übrig. Bleibt auch nicht mehr soo viel über für den Grafikspeicher.
 
  • Gefällt mir
Reaktionen: Xidus, xexex und USB-Kabeljau
Revan1710 schrieb:
Gerade Single-Player Games wie AC:O bieten sich doch an, mit nur 30 fps zu Spielen und dafür in hoher Bildqualität. Wenn wirklich 60 FPS dein Minimum ist, dann kannst du schon für FHD alle Karten unter einer 1080 Ti verbrennen.
Ja, oder man reduziert eben, wie bei Mittelklasse-Karten üblich, die Settings ein wenig.

Wenn zu wenig RAM verfügbar ist, muss man halt die Textur-Auflösung reduzieren.
Wenn zu wenig GPU verfügbar ist, muss man irgendeine der anderen Einstellungen reduzieren.

Revan1710 schrieb:
Außerdem kannst du dein Szenario doch ganz einfach nachstellen: Nimm dir eine Karte wie die 580 oder die 1060
und verringere diverse Details soweit bis du deine 60 Fps hast (außer Texturqualität und Auflösung).
Nimmst du jetzt deine 970 oder 980 und machst das gleiche, was fällt dir wohl auf? Ganz genau, es sind immer noch keine 60 FPS
Da ich keine der genannten Karten besitze, kann ich das nicht.
 
  • Gefällt mir
Reaktionen: Xidus und Organix
Revan1710 schrieb:
Gerade Single-Player Games wie AC:O bieten sich doch an, mit nur 30 fps zu Spielen und dafür in hoher Bildqualität.

Sorry, aber 30fps sind kein flüssiges Spielerlebnis. Ich habe Odyssey mit 90-100fps in WQHD gespielt. 30fps ist wie Screenshots ansehen.
 
  • Gefällt mir
Reaktionen: Xidus, navi. und Blumenwiese
@SKu
Da gebe ich dir Recht, bei AC ist das wirklich nicht flüssig. Es kommt aber immer auf das Game / Engine an. Am PC bevorzuge ich jedoch auch deutlich höhere FPS, die sind aber durchaus auch mit älteren Grakkas erreichbar, zumindest wenn man nicht in 4k spielt.
 
navi. schrieb:
Die Konsolen haben 8 GB.

Die Konsolen haben 8GB Speicher und keine 8GB Grafikspeicher. Für Grafik sind bei der Xbox und Ps4 derzeit 5 oder 6 GB nutzbar, einzig bei der Xbox One X mit 12GB Speicher können 9GB für Grafik genutzt werden.
 
  • Gefällt mir
Reaktionen: kisser
Oneplusfan schrieb:
Wessen Wunschszenario? Mal ehrlich, der Großteil der Kaufer wird nicht mit 30fps/Mittel nur Texturen Ultra spielen. Da wird, wenns nicht mehr ordentlich läuft, einfach alles erst auf High reduziert und dann irgendwann auf Mittel.

Ich weiß ja nicht wie ihr das handhabt, aber ich wechsele nicht von Preset High auf Preset Medium, wenn mir die Performance zu wenig ist. Ich will doch so wenig Qualität wie möglich einbüßen, um meine Framerate zu erreichen oder nicht? Also kann ich mich doch darüber freuen, dass ich vlt. ein paar Details runterschrauben muss, aber immerhin die Texturqualität voll aufgedreht lassen kann.

USB-Kabeljau schrieb:
Wenn zu wenig RAM verfügbar ist, muss man halt die Textur-Auflösung reduzieren.
Wenn zu wenig GPU verfügbar ist, muss man irgendeine der anderen Einstellungen reduzieren.

Ganz genau - Ich kann aber nicht nachvollziehen, wieso es für euch scheinbar keinen Unterschied macht, ob ich nun beides tun muss oder wenigstens die Texturqualität hoch/ultra lassen kann.

@SKu
Das kann gut sein, habe das Spiel selbst nicht gespielt. Bei Witcher 3 hat es mich z.B. nicht gestört deutlich unter 60 FPS zu haben, aber alle PS4 und XBox-Spieler sind doch gezwungen AC:O in 30 Fps zu spielen. Ist man hier dann einfach verwöhnt auf dem PC oder läuft es auf den Konsolen trotz 30 Fps gefühlt besser?
 
Revan1710 schrieb:
Ich weiß ja nicht wie ihr das handhabt, aber ich wechsele nicht von Preset High auf Preset Medium, wenn mir die Performance zu wenig ist. Ich will doch so wenig Qualität wie möglich einbüßen, um meine Framerate zu erreichen oder nicht? Also kann ich mich doch darüber freuen, dass ich vlt. ein paar Details runterschrauben muss, aber immerhin die Texturqualität voll aufgedreht lassen kann.



Ganz genau - Ich kann aber nicht nachvollziehen, wieso es für euch scheinbar keinen Unterschied macht, ob ich nun beides tun muss oder wenigstens die Texturqualität hoch/ultra lassen kann.

@SKu
Das kann gut sein, habe das Spiel selbst nicht gespielt. Bei Witcher 3 hat es mich z.B. nicht gestört deutlich unter 60 FPS zu haben, aber alle PS4 und XBox-Spieler sind doch gezwungen AC:O in 30 Fps zu spielen. Ist man hier dann einfach verwöhnt auf dem PC oder läuft es auf den Konsolen trotz 30 Fps gefühlt besser?
Na die Konsolenspieler liegen entspannt auf dem Sofa, wir PC Spieler sitzen angespannt auf einem Stuhl und zählen Frames.....
 
  • Gefällt mir
Reaktionen: Disco Pongo, .Sentinel. und Revan1710
@navi.

Nvidia hat weit über 60% Marktanteil bei Gamern (also Leuten die mit was besserem als einer iGPU zocken)
(@Mods , nein, dies ist kein Trollaccount, auch wenn mein Name und Profilbild dies vermuten lassen)
 
  • Gefällt mir
Reaktionen: Infi88 und navi.
HuangLederjacke schrieb:
@navi.

Nvidia hat weit über 60% Marktanteil bei Gamern (also Leuten die mit was besserem als einer iGPU zocken)
(@Mods , nein, dies ist kein Trollaccount, auch wenn mein Name und Profilbild dies vermuten lassen)
Musste es denn ein derart polarisierender Nick sein? Kommentiere damit mal was über ein AMD Thema.....
 
  • Gefällt mir
Reaktionen: Cpt.Willard
Zurück
Oben