Test Günstige AMD- und Intel-Prozessoren im Test

blackiwid schrieb:
Und ja Zacate ist sicher nicht mehr so doll, aber wo das raus kam wars der hammer, das jetzt AMD ein halbes jahr verspätet ist und kein total überfälligen Kabini anbietet ist mir unbegreiflich.
Die waren bei Release auf jeden Fall nen großer Schritt. Die Cedarview-Atom waren ja vor allem aufgrund der IGP bzw. dessen Treiber (die wirklich vernünftiges Decoding vermissen lassen hat) keine Offenbraung. Aber das ist nun auch schon über 2 Jahre her.
Dass Kabini einfach nicht am Markt ankommen will ist schon sehr verwunderlich, vor allem da Zacate ja schon so gut wie verschwunden ist. Da gibts kaum noch Boards im vergleich zu früher. Der Nachfolger von Kabini ist ja auch schon am Horizont zu sehen.
Aktuell kann man sich höchstens nen Celeron kaufen, aber der NM70 ist da ja auch nicht grad ne Wucht.


Kabini und Baytrail könnten da noch mal nen ordentlichen Schritt machen, aber wesentlich billiger als nen Sockel-System werden die auch nicht. Die etwas besser ausgestatteten Boards wird man da sicher auch nicht unter 70€ bekommen.
 
bensen schrieb:
Das ist ja komplett an den Haaren herbei gezogen. :freak:
Es ist zum einen einfach nur komplett falsch, dass die Intel-CPUs keine HD-Videos beschleunigen können. Und lustig wird das ganze in anbetracht dessen, dass sie es auch verdammt effektiv machen, während AMD GPUs (ob als Karte oder APU) in Sachen Videobeschleunigung keine Kostverächter sind.
Das Argument zieht nur dann, wenn man außer Acht lässt, dass der erhöhte Stromverbrauch auf - per Default aktivierte - Bildverbesserungseinstellungen zurück zu führen ist.

Schuld sind hier primär die Default-Treibereinstellungen.

Abgesehen davon, wäre es äußerst arm, wenn Intel trotz Fertigungsvorsprung mehr verbrauchen würde. ;)
 
allel schrieb:
Beim Stromverbrauch wird nicht thematisiert, das die kleinen APU´s besseres Idelwerte als die von Intel haben.
Bei uns laufen mehrere A4 4000 und dass ausreichend flüssig als Officemaschinen.

weils auch Schmarrn ist. Idle geben sich beide Plattformen nicht viel. Da muss man sich schon einzelne Tests mit verschiedenen Mainboards anschauen da die CPU hier wenig ausmacht was den Idle Vebrauch angeht.

Ein FM2 System kann locker unter 20W Idle brauchen, ein Sockel 1150 System genauso.
 
yasu schrieb:
Das Argument zieht nur dann, wenn man außer Acht lässt, dass der erhöhte Stromverbrauch auf - per Default aktivierte - Bildverbesserungseinstellungen zurück zu führen ist.
Dann hätte ich gerne einen Test verlinkt, der zeigt dass die GPUs ohne Bildverbesserer weniger als ne Intel-GPU verbrauchen oder zumindest erheblich weniger verbauchen als default und das das Videobild mit Verbesserer auch wirklich merklich besser aussieht als auf Intel- oder Nvidia-GPUs. :D
 
aufschlussreicher test :)
für office und internet dürfte wohl jede moderne cpu mehr als ausreichend sein und zum zocken sind alle hier getesteten (mit ausnahme des athlon) ohnehin nicht gedacht.
ob der lastverbrauch bei einem office-pc jetzt ins gewicht fällt...
alles in allem machen alle cpus ne ordentliche figur. bei intel ist der lastverbrauch n nettes bonbon, bei amd die grafikleistung.
am ende kann man hier aber getrost nach persönlicher vorliebe entscheiden.
 
Ganz interessant der Test, Volker.
Aber wie du selbst schreibst,
sollte eine Nvidia GeForce GTX Titan, wie [ihr] sie sonst in allen Tests verwende[t], nie zusammen mit einem 30-Euro-Prozessor eingesetzt werden, da die Leistung der CPUs so gering ist, dass selbst die schnellste Grafikkarte dies nicht ausgleichen kann.
Von daher sind die Benchmarks mit der Titan eher den theoretischen Tests zuzuordnen.

Da es außerdem heißt;
Wer nicht spielt, der bekommt mit allen acht getesteten Prozessoren in Anwendungen viel Leistung gemessen am eingesetzten Geld.
könnte es für Käufer mit kleinem Budget doch Interessant sein, welcher sich am besten mit einer Grafikkarte aus ähnlicher Preiskategorie schlägt.

Wertvoll und hilfreich wäre es bei einem Spezialtest wie diesen, wenn man die günstigen CPUs mit einer Grafikkarte aus dem Bereich ~60€ und ~100€ paart. Um aufzuführen ob bei GPU Limitierung immer noch Unterschiede bei den CPUs in Spielen festzustellen sind.

Und ggf. die aus den Tests resultierende Empfehlung, worin weitere 30-50€ eher zu investieren wären. In die GPU oder CPU.

Alternativ (oder gleich besser) so, wie Vorgeschlagen wurde, in einem kürzlich erstellten Thread bezüglich der GPU Auswahl.
Ein CPU Test, der mit 3 oder 4 Grafikkarten verschiedener Leistungsklassen durchgeführt wird. Vielleicht einmal jährlich. Dieser wird in jedem CPU (und GPU) Test erwähnt und verlinkt, womit man ebenfalls informiert ist, ab welcher GPU Stärke mit einer SPÜRBAREN CPU Limitierung zu rechnen ist.
 
bensen schrieb:
Dann hätte ich gerne einen Test verlinkt, der zeigt dass die GPUs ohne Bildverbesserer weniger als ne Intel-GPU verbrauchen oder zumindest erheblich weniger verbauchen als default und das das Videobild mit Verbesserer auch wirklich merklich besser aussieht als auf Intel- oder Nvidia-GPUs. :D

Als kleinen Einstieg:
http://ht4u.net/forum/index.php/topic,61021.msg495776.html#msg495776

Im übrigen wird z.B. von HT4U immer wieder auf den Sachverhalt hingewiesen.


Außerdem ist es völlig wurscht, ob es für dich merklich besser aussieht oder nicht. Fakt ist, AMD lässt das per Default alles an und lässt die Hardware nicht soweit runtertakten, wie die Konkurrenz.

Die Hardware könnte - sie darf es aber nicht.

Es ist also logisch, dass da der Verbrauch höher ist - zusätzlich zum Nachteil, den die "größere" Fertigung mit sich bringt.
 
Weil hier die Frage öfters aufkam und falls es wen interessiert...vonwegen preisgünstige Grafikkarten...
Ich habe hier einen Pentium G 3430 (also minimal schneller als die getestete Version) zusammen mit einer HD6870.

An einem 1920x1200er Bildschirm kann ich die 6870 damit gut ins GPU-Limit treiben. 100% am Anschlag.
Gut, die Karte ist jetzt auch schon etwas älter. Von der Leistung her aber immer noch grob vergleichbar mit aktuellen Karten der 100€-Klasse, sagen wir HD 7790 oder 260x.

Mal abseits der Enthusiasten und HardCore-Gamer ist man eigentlich schon ganz ordentlich dabei mit so ner CPU.
Im Alltag verleiht eh die SSD Flügel.
 
Ich hab vor einiger Zeit auch meinen G1620 mit meiner GTX470 getestet. Gab nur wenige Spiele, die damit nicht spielbar waren (in FullHD und alles Max.).
Pentium + 120€ Grafikkarte sollte immer noch eine ganz passable Kombination sein. Es gibt einfach nicht besonders viele derartig CPU-fordernde Spiele.

Siehe auch das FAQ - Der ideale GamingPC. Dort machen die das ähnlich.
 
Zuletzt bearbeitet:
yasu schrieb:
Außerdem ist es völlig wurscht, ob es für dich merklich besser aussieht oder nicht. Fakt ist, AMD lässt das per Default alles an und lässt die Hardware nicht soweit runtertakten, wie die Konkurrenz.
Natürlich ist das relevant. Wenn es keinen Vorteil bringt, warum sollte ich mir dann die hohe Leistungsaufnahme antun?
Wenn AMD meint diese Einstellung ist für ihre Hardware optimal, dann sollen sie es so tun. Dann braucht man sich aber auch nicht über Negativpunkte in Tests wundern. Dem User interessieren "Bildverbesserer" nichts wenn sie nichts bringen.
 
Warum gibt CPU-Z eigentlich 65 Watt TDP an für den 750k, der hat doch 100 Watt?

Könnt ihr evtl. etwas über die Temps des 750k sagen?
Mein Mobo gibt für den 750k 40° unter Prime an (Core, vermute ich), HWsensor 70° fürs Package. Kein OC, minimal UV.
Mein Phenom II 940BE (TDP125 Watt) hat bei schlechterer Kühlung nie über 60 gehabt O.o
 
Totti1001 schrieb:
Falls es noch nicht erwähnt wurde: Der G3220 kann kein C7 State. Also wer Wert legt auf ein bis auf letzte Watt stromsparendes System sollte vom G3220 Abstand nehmen.
http://www.heise.de/forum/c-t/Bauvorschlaege-fuer-PCs-und-Server/Pentium-G3220-kann-CPU-C7-state-nicht/posting-438478/show/

Das scheint bei diesem Test aber irrelevant zu sein. Die größeren Haswellprozessoren (siehe Tabelle) zeigen den gleichen Idle-Verbrauch wie der Haswell-Pentium.

Sehr irritiert mich, dass es als gut angesehen wird, wenn die Last-Idle-Differenz klein ist. Das ist doch Unsinn! Von Ivy Bridge zu Haswell steigt diese Differenz an (normalerweise, die Messwerte dieses Tests sind fragwürdig*) bei konstanter Leistung/Watt. Das ist doch Spitze, geringerer Idleverbrauch und etwas mehr maximale Leistung bei etwas höherem Lastverbrauch aber gleicher Leistung/Watt.

*Dass Deluxe-Mainboards für die Messung von Idle-Leistungen absolut ungeeignet sind, wird wohl jeder einsehen.

Trotzdem ein interessanter Test. Schließlich sind nicht nur Office-Systeme eine mögliche Zielgruppe dieser Prozzis. Jeder Spieler kann sich jetzt ausrechnen, ab wann ein kleiner DualCore Prozessor die Leistung eines Gaming-PCs limitieren würde.
 
Tranceport schrieb:
Warum gibt CPU-Z eigentlich 65 Watt TDP an für den 750k, der hat doch 100 Watt?

Könnt ihr evtl. etwas über die Temps des 750k sagen?
Mein Mobo gibt für den 750k 40° unter Prime an (Core, vermute ich), HWsensor 70° fürs Package. Kein OC, minimal UV.
Mein Phenom II 940BE (TDP125 Watt) hat bei schlechterer Kühlung nie über 60 gehabt O.o
Das hab ich mich auch schon gefragt,aber Idle um 65 Watt,Last max 130 Watt da scheinen die 65Watt zu stimmen.
 
Zurück
Oben