Entiendo para los resultados de la GF100 no tienen claro cuales son las especificaciones del equipo en la que se probó??
To gain some idea of comparative performance, we ran the Radeon card in our labs on the latest drivers, keeping the settings identical. NVIDIA used an Intel Core i7 960 with Windows 7 and 6GB of RAM. We used the slightly faster 975 EE for the AMD box, but retesting with a '960 showed no real difference in the scores.
Si esta ese dato: lo unico que en tanto ingles se pasa por alto:Buen punto! No cabe duda que la nueva serie de Nvidia será puro poder! y a huevo que con la desventaja de la tardanza de salir al mercado tuvieron que aprovechar a sacar algo de ventaja en puro rendimiento. Aunque yo honestamente dudo que ATI le baje de precios a su alta gama. Pronto tendremos a los verdes y rojos con todo su poderío en el mercado pero y el software?? Seguimos sin ver horizonte claro y hasta donde puede llegar a ser aprovechado el DX11.
Misterios?... realmente el unico que quiza es real. Es que no sabemos el precio, pero en cuanto a rendimiento no hay mucho que dejar a la imaginacion al menos yo tengo claro por donde va la serie de Nvidia. La unica ventaja que tiene ATI es que ya las tiene en ventas.. pero Nvidia sabe como funcionan y seguro la tardanza es para ganarles.. seria logico aprovechar la ventaja.
Buen punto! No cabe duda que la nueva serie de Nvidia será puro poder! y a huevo que con la desventaja de la tardanza de salir al mercado tuvieron que aprovechar a sacar algo de ventaja en puro rendimiento. Aunque yo honestamente dudo que ATI le baje de precios a su alta gama. Pronto tendremos a los verdes y rojos con todo su poderío en el mercado pero y el software?? Seguimos sin ver horizonte claro y hasta donde puede llegar a ser aprovechado el DX11.
DX11.. uffff.. eso es peludo... mira lo que dijo el Vicepresd de Nvidia nada bonito.
Denle click joder XD.. Bueno.. Si han estudiado mercadeo, economia o al menos vendeta de tomates.dime de que te jactas y te dire de que careces...
pues que raro porque nvidia clama q physx es la panacea, sin embargo esta lejos de ser un estandard... mentras que dx11 ya lo es... y todavia mas raro que diga eso... si las gf100 estan DISENIADAS para correr DX11...
dime de que te jactas y te dire de que careces...
casi completamente de acuerdo con vos mgxmgi=asd sadasxczasd uta... con vos mario,
solo que lo maximo que el slot pcie 16x tira son 75 watts no 250 ni 300...
La fuente. tengo entendido que el estándar define el máximo que una tarjeta puede ocupar de potencia entre el slot y la fuente.ah awebos ahi si :P , aunq esto ya empieza a hieder al desvergue de las geforce FX
Tengo entendido que las gf100 o fermi o como ls quieran llamar, tienen algunos problemas:
1-El chip es enorme... y genera mucho calor. La tarjeta de video con su disipador es casi del doble de tamaño que el de la competencia.
2-El consumo se espera que ande por los 250W. Por lo mismo de que calienta bastante.. El problema es.. que esto se acerca demasiado al lìmite de PCIe de potencia. Por lo que si se pasan no podrán vender las tarjetas como PCIe (estandar).
3-Tal vez el más grave problema de esta tarjeta es que nació orientada a ser un GPGPU, es decir un procesador màs dedicado a calculos generales que a gràficos, por lo que el "performance grafico" puede que aunque impresionante no deje mordiendo el polvo a AMD como algunos fanboys han venido diciendo.
4-El precio. Si al final resulta que la tarjeta solo tiene un 10% de performance màs que la competencia pero su precio es de un 25% màs.. adivinen quién es el que sale perdiendo. Algunos dicen que el mercado de estas tarjetas es top-end, realmente casi que se van a encajonar a eso porque la misma tecnología no les permitirá sacar un equivalente low end.
Bueno... veamos en que termina. Yo lo único que se es que en las Vegas la gente de Nvidia no permitió que se comparar lado a lado el performance de su tarjeta contra las AMD, ni tampoco se atrevieron a decir nada de las specs de la maquina o software que usaron para hacer la demo.. Sepa usted a saber porqué.
la mayoria buscamos un balance entre calidad y precio y hasta ahorita nada de lo visto me impresiona
Si se tardan tanto es porque le estan invirtiendo millones al asunto = tarjetas caras que "son mejores que ati y ke si traen DX11 pero como ya dijimos que ese bolado es feo es posible ke ni lo corra bien". De todos modos, Nvidia las lleva de perder, siento que Nvidia se ha vuelto una tortuguita verde, y AMD ATI le da duro, y con las nuevas formas de hacer negocios de AMD es muy posible que hasta le supere en menor tiempo, ya cuando salga el famoso FERMI con radiador de carro soldado y refrigeración de estado de Bolse-Einstein ya estara la ATI 6XXX volando pij_a
yo veo esto, que ati sea la mas competitiva y nvidia resagada como una gran desventaja, porque como ya todos comprobaron, sube bastante los precios, lo mismo pasaria si nvidia tuviera un chip q ati no pudiera alcanzar.yo habia comentado que eso podria suceder hace tiempo, y todos los atifans dijeron que no y hoy bien doblada la estan metiend =P
como alguien NO fan, e incluso para los de tuetano verde aqui creo que es evidente que fermi aunque sea muy rapido, ha llegado demasiado tarde, demasiado caro y con demasiado consumo, y para ser un 10% mas rapido que una radeon (como se rumora), lamentablemente no es la respuesta que se esperaba de nvidia. simple y sencillamente nvidia repite los errores de la generacion de las geforce FX.
ati les ha cambiado el juego, la forma de hacer tarjetas de ellos es hacer chips que no son necesariamente los mas rapidos pero escalarlas al hacerlas duales, subir velocidades de core etc. para hacer tarjetas high end, en cambio nvidia sigue insistiendo en hacer la mas rapida y escalar hacia abajo para cubrir todas las gamas.
yo veo esto, que ati sea la mas competitiva y nvidia resagada como una gran desventaja, porque como ya todos comprobaron, sube bastante los precios, lo mismo pasaria si nvidia tuviera un chip q ati no pudiera alcanzar.
ah jarthur, lamentablemente tu concepto de que si corre cryisis bien ya no es una promesa de buen desempenio en general. hay muchas cosas ademas de crysis que marcarian que tan bien se comporte una tarjeta. crysis NO es algo absoluto.
ya salio un juego que como Crysis no corra bien ni con el hardware mas puntero? . Mi vieja 9600GT mueve el Crysis en efectos graficos medios a 1280X720 de manera decente, pero no reniega de ningun otro juego reciente, como el Call of Duty 6: Modern Fail 2 incluso a 1920X1080 full eye candy.
permitime a ver como es esto.. corres MW2 a FULL HD con full eye candy (yo leo todo en en detalles y filtros) y decis que no ranea :o ni mi HD 4850 que es superior a la 9600GT logra eso
tendras bien configurado todo? usas Win7? Ultimos Drivers sobre instalacion limpia?
ejem, yo vivo con mi proce overclockeado de los 2.4 GHz nominales a 3.2GHz y la VGA con un 10 de OC desde Bios, y la RAM trabajando 1:1 que les ayuda un resto. Y si, afirmo que lo corria con los valores maximos a Fool HD, aunque sin usar Anti Alias.
Como el anti alias es un filtro pesado normalmente no lo uso, hasta que tenga un derivado del fermi.
claro que de generacion a generacion han tenido buenos aumentos en desempeño, pero de pelear ATI contra nVidia, tarjeta high end contra tarjeta High End, no me vas a decir que era por goleada, que la HD5870 le gana a lo mejor de nvidia por el doble de desempeño, le gana por una pata, una cabeza, o una cola a lo mucho.la high end de ati es la 5970 no la 5870.
GTA4 no lo meto porque simplemente requiere mas cosas que una simple VGA super poderosa para correr, STALKER es basura (por lo menos para mi, que juego mas Fello), y Far Cry 2 ni merece ser mencionado por respeto al primer Far Cry. Le pido a los Altos Mandos Infernales que eliminen de manera dolorosa y lenta al equipo que programo Far Cry 2.vos preguntaste que juegos exigen mas, no cuales te gustan y cuales no :P
¿¿Porque no creen que Call of Duty 6: Modern Fail 2 me corre Fool HD con todo al maximo ?? (sin filtros) Cierto que me quede con la trompa abierta, pero tampoco es tanta hazaña.no es que no te creamos, esq da la impresion q lo ves con tus ojos de fanboi XD , osea no sos objetivo.
Bua a poner el Fraps para sacar pruebas fidedignas sin alteraciones por Paint, pero tengo que conectar mi tele Samsucks de 32" Fool HD asi que sean pacientes.eh televisor HD tonto? y eso que es vos?
Pasar por ATI nunca ..... N U N C A !!!!los nunca siempre se llegan, no digas de esta agua no beberé XD , pero si, tu clavazon es bien irracional, si nunca has tenido una como sabes si son buenas o no....?
La Unica manera que elija ATI es que nVidia muera y nadie NI Intel reclame el puesto. Solo asi. Y talvez mejor me compre una Play Station 4 o un Xbox 1080, o una Wii Fool HD 3D Mania con Natal++.
eh televisor HD tonto? y eso que es vos?fool HD lo dice por joder refiriendose a como la mara lo dice lo de FULL HD XD
fool HD lo dice por joder refiriendose a como la mara lo dice lo de FULL HD XDsi lo sospechaba pero no vaya a ser q me salgan con alguna campeonada XD
Como que nunca he tenido una #@*[*¨¡?¡ ATI ?? !!!
nunca has tenido una ati de las buenas? XD
Y mi X1600PRO ? y mi 9800SE ?
como, asi decis vos?(http://media.bestofmicro.com/Q/M/230350/original/Crysis%208xAA.png)
Ahora me vas a decir si o si, si la Mejor tarjeta de video de ATI de la serie HD5000 derrota a la mejor tarjeta de nvidia de la sertie GTX200 por el doble de desempeño o si la vence solo por un porcentaje, ojo, valores globales no juegos especificos.
PD: Goomba es bien parecido con Axioma.no yo a el me parezco mira(http://cardboardmonocle.com/blog/fxsuits/goomba.jpg)
Radeon HD 5970 has undeniably proven itself to be the king of dual-GPU graphics card, by outperforming its competitor GTX295 by 34%. AMD has finally taken back the performance crown once again, and will continue to reign the high-end graphics market at least until NVIDIA gets its Fermi products ready.
Though delivering 11% less efficiency than Radeon HD 5870 CrossFire, Radeon HD 5970 is undoubtedly more cost efficient, showing great power control as well.
It’s a pity that Radeon HD 5970 doesn’t offer massive overclocking headroom as AMD claims, plus the protection measures, we suggest you to just overclock a bit for pleasure.
Another small cons is Radeon HD 5970 is too long for most PC cases, which might cause some trouble to those who don’t want to pay extra money for a new case.
By now AMD has managed to expand its DX11-ready products through mid-segment and high-end market, and is going to extend to low-end and entry-level market in the upcoming year. Being one step ahead, AMD is going to have an exciting quarter without competition from NVIDIA.
pero ya ves porque dije q la gf100 debería ser mas de un 10% mas rápida? tantos meses y la verdad yo esperaba q nvidia saltara mordiendo tirando patadas y escupiendo... no se un 40-50 % mas rápida? digo para toda la buya q le han hecho es lo menos que esperaría...
ah y ahora son tristes las gtx295, ya quisiera tener yo esas tristezas XD