Test Intel Arc B580 Limited Edition im Test: Intel Kampfmagier vs. Nvidia GeForce RTX & AMD Radeon RX

PegasusHunter schrieb:
Dann bin ich aber auf die B770 LE 16 GB gespannt, was die verbraucht. :schluck:
Dann frage ich mich naiv, ob es die überhaupt geben wird, vielleicht sogar mit 20G VRAM.
 
Aisn schrieb:
Btw: Es soll Menschen geben, bei denen ist bei einem bestimmten Preis einfach das Ende der Fahnenstange erreicht, da hilft kein "für 50,-€ mehr bekommst du viel mehr...". Irgendwann will frau / man / HundKatzeMaus einfach nicht mehr Geld investieren, "nur" um Fortnite oder CS o.ä. spielen zu können...

Wie immer: My2Centz
Uuuuuund!? Ne Radeon RX 6600 gab es jetzt oft genug für unter 200€, erfüllt auch alle Ansprüche in dem Bereich. Und dann komm bitte nicht mit mehr VRAM oder RT. xD
 
@LamaMitHut Meine Güte, wirklich jetzt? Muss ich wirklich die Argumentation von mir erklären?

Es geht mir darum, dass alleine die Auswahl des Testszenarios die Bewertung und deren Konnotation vorgibt, während anders ausgewählte Einzeltests zu einer anderen Gesamt-Gewichtung führen können bzw. führen müssen.

Weiterhin wollte ich darauf hinweisen, dass das hier oft formulierte Argument, "richtige" Karten zu kaufen, für einen gewiss nicht zu kleinen Interessentenkreis aufgrund einer monetären Grenzziehung aus unterschiedlichsten Gründen nicht greift, so dass eine solche Neuerscheinung Interesse generiert!?

Ist die RX6600 neu oder möchtest du einfach nur eine lustige Annekdote aus deinem Erfahrungsschatz preisgeben?

Vielleicht interessiert sich ja jemand für die Intel-Karte?
Vielleicht will es / sie / er einen reinen Intel-PC haben?
Vielleicht sind die Rahmenbedingungen des Rest-PCs derartig, dass eine solche Karte ideal reinpasst?
Vielleicht gefällt ihr / ihm die Karte optisch und es / sie / er möchte wissen, ob sie auch in der Leistung für solche Anwendungsszenarien reicht?


Warum kommen nach den ersten Seiten nur noch solche Kommentare wie deiner, die sich mit den vorherigen Kommentaren nur lose beschäftigen und nicht einmal den Anspruch erheben, diesen verstehen zu wollen?

Mir ist das zu trivial, aber jeder Mensch ist anders, offensichtlich...
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Innocience, Chocobo und WesCraven
Randnotiz schrieb:
Dann frage ich mich naiv, ob es die überhaupt geben wird, vielleicht sogar mit 20G VRAM.
Wenns die nicht geben sollte, behalt ich meine 770LE 16GB noch ein paar Jahre.Mit FullHD +VSync 75HZ kann ich alles in FullHD spielen.
 
  • Gefällt mir
Reaktionen: LETNI77, Atlan2101 und coxon
Icke-ffm schrieb:
keiner auch Intel wird nicht eine Karte mit Verlust anbieten.
Doch, tun sie, siehe Post 295. Sie verlieren massiv Geld mit jeder Karte und müssen sich halt überlegen, was ihnen der Markteintritt wert ist und wie lange sie das tragen können / wollen.
 
  • Gefällt mir
Reaktionen: incurable
@Aisn alles klar, ich habe verstanden. Am besten wird also gar nicht mit der Konkurrenz verglichen, sondern einfach geschaut ob alles was ein paar Jahre auf dem Buckel hat und eigentlich auf jedem Toaster läuft auch auf der Karte funktioniert.
 
@LamaMitHut
@Aisn hat doch recht. Du nimmst eine "deutlich" langsamere RX 6600 als Vergleich, ignorierst Benchmarks, ignorierst das selbst in dieser Leistungsklasse 8GB VRam nicht mehr das Gelbe vom Ei ist und ignorierst, dass die Intel abseits von Spielen viel mehr liefert als eine RX 6600 oder gar RX 6700XT. Du vergleichst einen Gebrauchtmarkt mit Neuware, was so oder so schon ziemlich albern ist.
 
  • Gefällt mir
Reaktionen: Aisn
DiePalme schrieb:
@LamaMitHut
@Aisn hat doch recht. Du nimmst eine "deutlich" langsamere RX 6600 als Vergleich, ignorierst Benchmarks, ignorierst das selbst in dieser Leistungsklasse 8GB VRam nicht mehr das Gelbe vom Ei ist und ignorierst, dass die Intel abseits von Spielen viel mehr liefert als eine RX 6600 oder gar RX 6700XT. Du vergleichst einen Gebrauchtmarkt mit Neuware, was so oder so schon ziemlich albern ist.
Die Karten gibt es neu zu diesem Preis. Es ging mir auch primär um das "zum daddeln reicht es doch" Argument, was ich irgendwie seltsam finde. Dafür sind die Karten dann doch nicht günstig genug.

Aber jeder wie er mag.
 
  • Gefällt mir
Reaktionen: incurable
LamaMitHut schrieb:
Dafür sind die Karten dann doch nicht günstig genug.
Und das entscheidest du? Die RX 6600 ist über 30% langsamer. In einigen Spielen ist der Abstand sogar klar größer. Das ist ein gewaltiger Unterschied. Und was ist teuer? Das ist doch immer abhängig vom jeweiligem Geldbeutel. Dem einen sind 2000€ zu viel, dem nächsten 1000, der nächste will max 600€ ausgeben.... das muss doch jeder selbst wissen. Am Ende vergleicht man innerhalb der angestrebten Preisklasse, was man am besten kauft.
Wenn für dich die RX 6600 die bessere Wahl ist, meinetwegen. Ich würde jedem abraten sie jetzt noch zu kaufen. Genausowenig wie ich eine RTX 4060 empfehlen würde. Genauso wenig würde ich eine 7900XTX empfehlen.
 
  • Gefällt mir
Reaktionen: Quidproquo77 und mr_clark
DiePalme schrieb:
und ignorierst, dass die Intel abseits von Spielen viel mehr liefert als eine RX 6600 oder gar RX 6700XT.
6600XT nicke ich, aber wo ist sie besser als die 6700XT ? Und die Karte konnte man vor X Jahren um den Preis um ca 300-400 Euro kaufen.
Okay der verbrauch ist höher, liegt aber an den 7nm.
Die 6700xt idt einfach ewig was Preis Leistung angeht ungeschlagen
 
DiePalme schrieb:
@LamaMitHut
@Aisn hat doch recht. Du nimmst eine "deutlich" langsamere RX 6600 als Vergleich, ignorierst Benchmarks, ignorierst das selbst in dieser Leistungsklasse 8GB VRam nicht mehr das Gelbe vom Ei ist und ignorierst, dass die Intel abseits von Spielen viel mehr liefert als eine RX 6600 oder gar RX 6700XT.
Wenn jemand wie von @Aisn postuliert bei X Euro eine Grenze zieht, ist es völlig unerheblich, was Produkte mit Preisen > X bieten.
 
  • Gefällt mir
Reaktionen: Icke-ffm
Hallo zusammen,

@Chismon
Chismon schrieb:
Für einige wird der "Idle"-Verbrauch ein "No Go" sein, für andere ziemlich bedeutungslos, denn Prioritäten varieren bekanntlich.
Grüß dich. Danke für deine Antwort. Du hast mit vielem nicht Unrecht. Aber möglichweise ist dir die eigentliche Intention meines Beitrages entgangen.

Es ging mir um die Relation, daß hier so ein Verbrauch mir nichts dir nichts hingenommen wird, wohingegen bei einem eher "Klacks-Betrag" - den man sogar noch leicht an anderer Stelle wieder einsparen bzw. ausgleichen kann - beim IDLE-Verbrauch des Ryzen 9800x3d hier, die üblichen Auguren ein regelrechtes Schlachtfest damit veranstalteten.

Ich finde diese GPU per se also nicht schlecht. Vor allem die Verbesserungen sind positiv zu sehen. Aber an sich ist der IDLE-Verbrauch einfach viel zu hoch und nicht hinnehmbar in meinen Augen. Denn es ist nun einmal so, daß ein Rechner sich eher zumeist im Desktop-Betrieb / IDLE befindet.

So long...
 
Also wenn ich mir ansehe, wie viel meine 5700 mindestens zieht (hab gerade YouTube auf einem Bildschirm und Firefox auf dem anderen), ist die B580 auch kein bisschen schlechter, in dem Aspekt
1734116985317.png
 
  • Gefällt mir
Reaktionen: konkretor
SFFox schrieb:
wir sind hier im Budget Bereich. Indiana Jones braucht auch mehr als 8GB, aber eben auch ne ganz andere Rohleistung hinter diesem Speicher

Leider ist das Spiel das erste seiner Art, das in einen ganz neuen Bereich vorgestoßen ist.

Indiana Jones setzt raytracing-fähige GPUs voraus, sonst startet das Spiel erst gar nicht. Entsprechend lässt sich raytracing auch nicht deaktivieren, um diese Bremse herauszunehmen.

Hoffe das macht keine Schule, denn sonst kann man nur noch mit high-end GPUs am PC spielen, wenn man denn 60 FPS haben möchte, mit den entsprechenden Kosten.
 
NIGHTFIL schrieb:
Fps pro Watt besser als AMD???
Ist ja auch kein sonderlich schwieriges unterfangen in diesem Bereich besser als AMD zu sein.
 
DiePalme schrieb:
kein sonderlich schwieriges unterfangen in diesem Bereich besser als AMD zu sein.
Sagst Du das gerade über die Firma, welche ihre CPUs mit der Brechstange behandelt, damit diese noch 1% besser auf der Skala als die Konkurrenz sind?
 
  • Gefällt mir
Reaktionen: coxon und eXe777
@Randnotiz
Wir reden hier über GPUs nicht CPUs. ;)
 
Zurück
Oben