Grafikkarte um 150€?

  • Ich suche eine neue Grafikkarte.
    Sie sollte eigentlich nicht mehr als 150€ kosten.
    Slot muss AGP sein, ob ATI oder NVIDIA ist eigentlich egal.

    Bisher habe ich soetwas wie eine GeForce 6600GT im Auge.

    Aber vielleicht hat einer von euch eine bessere Idee oder kann mir eine gute 6600GT empfehlen.

    "Ist es schon Zeit, um Thaddäus den Tag zu vermiesen?"

  • Zitat von Hel

    ATI hat afaik öfter mal Treiberprobleme, da wär ich etwas vorsichtig

    Hallo,

    es stimmt, das ATI control center ist eine Zumutung. Ich habe eine ATI-Karte und benutze die alternativen Omega-Treiber, mit denen bin ich zufrieden.

    Ich benutze die Karte unter anderem, um Filme per TV-out am TV wiederzugeben. Vorher hatte ich eine GeForce, und hier liegt ATI meiner Meinung nach ganz klar vorn.

    Gruß

    akapuma

    Wer weiß, wovon er redet, kann es sich leisten, sich verständlich auszudrücken.
    Besucht auch meine Homepage: http://akapuma.info

  • naja Zeitweise muss man bei NVidia Karten auch schonmal ältere Treiber benutzen, damit das mit dem TV Out richtig funktioniert :/

    Der Autor übernimmt keinerlei Gewähr für die Aktualität, Korrektheit, Vollständigkeit oder Qualität der Informationen.

  • Naja Tv-Out nutze ich nicht und Hardcore-Gamer bin ich auch nicht.

    Ich spiele ab und zu neuere Spiele und ich möchte eigentlich nur, dass die endlich wieder mal etwas ansehnlicher laufen, als mit meiner GeForce4200.

    Ich denke ich werde mir diese Karte hier wohl holen: Gainward PowerPack! Ultra/1960 XP

    "Ist es schon Zeit, um Thaddäus den Tag zu vermiesen?"

  • Zitat von akapuma

    Hallo,

    es stimmt, das ATI control center ist eine Zumutung. Ich habe eine ATI-Karte und benutze die alternativen Omega-Treiber, mit denen bin ich zufrieden.

    Ich benutze die Karte unter anderem, um Filme per TV-out am TV wiederzugeben. Vorher hatte ich eine GeForce, und hier liegt ATI meiner Meinung nach ganz klar vorn.

    Ähm Gforce KArten mit Bt869 Chip sind imho besser. Habe hier eine Gforce2Mx440 und eine Radeon und die Gforce mit Tvtool gibt bei mir ein wesentlich besseres Bild rüber via S-Video.
    Der einzige Vorteil bei Radeons sind RGB ausgabe via Scart Adapter, aber der Unterschied am TV zw. Y/C und RGB ist minimal.

    Der TVout der Radeons gibt imho fixed 800x600 rüber, deinterlaced und quetscht diese via Wandler dann in ein analoges PAL Signal.

  • Zitat von incredible

    Ähm Gforce KArten mit Bt869 Chip sind imho besser. Habe hier eine Gforce2Mx440

    Der Bt869 von Connexant ist sehr gut, der [FONT=Verdana, Arial, Helvetica, sans-serif]CX25871 sogar noch besser. Bei neueren GeForce-basierten Karten dürfte die Sache aber schon etwas bescheidener aussehen. Dazu zitiere ich mal von http://www.tvtool.info[/FONT]

    Zitat

    Seit Einführung der GeForce4-MX setzt nVidia allerdings einen eigenen, integrierten TV-Chip namens 'MV' ein. Dieser Chip, der vermutlich recht preisgünstig ist, kommt leider nicht an die Qualität eines CX25871 heran. Es gab zwar auch nach der GF4-MX noch einige Grafikkarten mit externem TV-Chip, aber diese sind praktisch vom Markt verschwunden. Auf der GeForce-6 dürften sie gar nicht mehr zu finden sein. Die beschränkte Bildqualität des MV-Chips ist aber nur ein Grund, es kommt noch etwas hinzu.

    Zitat von incredible

    Der TVout der Radeons gibt imho fixed 800x600 rüber

    Bei meiner ATI X300SE sind 720x576 eingestellt, dagegen waren es bei meiner alten GF2MX400 immer 800x600.

    Zitat von incredible

    deinterlaced

    Das Deinterlacen ist abschaltbar.

    Gruß

    akapuma

    Wer weiß, wovon er redet, kann es sich leisten, sich verständlich auszudrücken.
    Besucht auch meine Homepage: http://akapuma.info

  • Zitat

    Bei meiner ATI X300SE sind 720x576 eingestellt, dagegen waren es bei meiner alten GF2MX400 immer 800x600.

    Das ist schon klar, habe ich auch gemerkt, aber .... intern scheint ihn das nicht zu interessieren, WENN man via Y/C Ausgang das Videosignal ausgibt. Denn dann müsste die Graka bei den eingestellten 720x576 ein Signal von 13.5Mhz und 53.333µs ausgeben, was bei mir nie möglich war.

    Zitat

    Das Deinterlacen ist abschaltbar.

    Hatte mal so einen Rage2DTweak installiert, aber das Abschalten des internen Deinterlacers interessierte die Radeon beim Y/C Output leider wenig :( .

    Hast du mal einen Link zu dem Omega Treiber, bzw. einer Version die bei dir die o.g. Probleme ansch. nicht verursacht?

    In den HTPC Foren nutzen die deshalb den selbstgebauten RGB/Scart adapter, damits an die Qualität der Matrox G400 heranreicht und zudem DirectX9 unterstützt wird.

  • Wer (als Spieler) einfach nur die blanken Daten der Grafikleistung vergleichen will, der sollte sich bei "Adrians Rojak Pot" den jeweils aktuellen "Desktop GPU Comparison Guide" anschauen (Achtung: Tabellen, Tabellen!).

    Aktuelle Version: Desktop Graphics Card Comparison Guide Rev. 10.1 (6. März 2006)

  • Ich hab mittlerweile meine zweite Karte mit NVidia Chipsatz. Nachdem meine alte Elsa nach etlichen Jahren den Geist aufgegeben hat, ists nun eine Gainward GeForce FX 5500. Ich bin durchaus zufrieden mit dem Teil. Die gibts allerdings mittlerweile neu nicht mehr zu kaufen afaik. Wichtig war mir vor allem TV out mit DualView, ist praktisch wenn man am Rechner werkeln und nebenbei noch nen Film von Festplatte auf dem TV gucken kann. War vor allem toll als ich noch keinen DVD Player hatte, wenn die Kids mal ne DVD gucken wollten. Spielen tu ich selten und wenn keine Spiele die ne extrem schnelle Grafikkarte brauchen, unter anderem weil ich nicht einsehe, mir für ein neues Spiel auch gleich noch die passende Hardware kaufen zu müssen.
    Ich hab allerdings den Eindruck, daß AGP so langsam von PCI Express vom Markt verdrängt wird, neue Mainboards haben oft gar kein AGP mehr.

  • FreaQ
    Ist ne gute Wahl. Eigentlich tendiere ich eher zur X1600 XT, da sie a bisserl besser und a bisserl stromsparender als die 6600 GT ist, aber nur mit 256 MB vorhanden ist und deshalb auch teurer als die 6600 GT mit 128 MB.

    akapuma
    Wie stellst du die Auflösung auf 720x576 bitte? Wenn ich bei meiner Mobility R9000 oder AIW Radeon 9800SE TV-Out nutze und Overscan aktiviere, streckt der das Bild zu sehr nach oben und unten und zoomt zu stark, dass ich Overscan einfach nicht nutzen kann. Ist das bei dir auch so, oder gibts da Abhilfe. Nutze TV-Out doch recht häufig. Nutze bei der AIWR9800SE die Omega-Treiber.

    Hel
    Du hast richtig gesehen. Obwohl AGP nicht minder gut ist, wird es absichtlich von den Graka-Herstellern verdrängt. Folge davon ist, dass AGP-Karten teurer sind als die PCIe Pendants, zumindest in der Regel. Im High-End Segment gibts überhaupt keine AGP Karten mehr. Obwohl der Markt besteht, wird das ignoriert, damit sich PCIe umso eher durchsetzt.
    Nojo, mir kanns egal sein. Nächstes Upgrade auf AM2 und PCIe. :D

  • Zitat von Deinorius

    akapuma
    Wie stellst du die Auflösung auf 720x576 bitte?

    Siehe Bild. Ich habe mal andere Einstellungen probiert, die Bildgröße am TV bleibt aber immer gleich. Im Vergleich zu meiner alten GF2MX400 mit Bt869-Chip ist der Overscan aber wesentlich geringer. Man sieht keine schwarzen Ränder, es geht aber auch nicht wesentlich was verloren.

    Gruß

    akapuma

  • Zitat

    Ich habe mal andere Einstellungen probiert, die Bildgröße am TV bleibt aber immer gleich.

    Eben, und das ist der Punkt. Sobald du am Y/C s-video Ausgang das Signal abzwackst kommt da irgendwas raus, was nach PAL aussieht und auch so wiedergegeben werden kann. Nur ... intern weiss der Teufel wie die Radeon den Overlay oder was auch immer da über die Leitung jagt. Hast du schon mal versucht den Overlay auszuschalten und einfach ein 1:1 clone auf dem TV auszugeben? Der Main Monitor muss sodann auch auf z.b. 720x576 stehen, sonst hast du diesen *tollen* VirtualDesktop auf dem TV. Videos sodann via Fullscreen abspielen. Aber dann hast du manchmal noch das Problem mit der YUV Luma, denn bei mir waren sodann alle Darstellungen am TV zu flau und ich musste im Radeon Panel da in den Gradationskurven rumtunen, was aber auch wiederum Qualität kostet.

    Wenn du eine gute Qualität mit Radeons erreichen willst, dann vga/scart Adapter bauen oder im Ebay oder HTPC Foren kaufen. Dieses Radeon Utility Powerstrip nutzen, wo du die Frequenzen auf exakt PAL TV Ausgabe tunen kannst und sodann an den RGB Scart Eingang des TVs anschliessen. Aber vorsicht, die Timings unbedingt im Netz nachlesen, wenn da was falsches an den TV übergeht, kommt Nonsens raus und macht viell. sogar den TV kaputt.
    http://www.idiots.org.uk/vga_rgb_scart/
    Nur geht der da hin und übergibt 720x540! Perfekt wären 702x576 oder 768x576 (Videoplayback "stretched" to fullscreen).
    So machens auch die HTPC Freaks, welche eine Radeon benutzen und somit RGB am TV haben wollen. Die im TV-Output ungeschlagene Matrox G400 ist zwar lecker nur untertützt sie kein DX9 was von manchen HTPC Systemen voruasgesetzt wird.

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!