+ Responder Tópico
Página 6 de 7 Primeira ... 4 5 6 7 Última
  1. #126
    Membro Avatar de V1P3R_BR4Z1L14N
    Info Conteúdo e Citações Jogos Mensageiros
    The cake is a lie
    Registro
    Jul 2004
    Mensagens
    12.301
    Verdinhas
    228

    Re: Uia ^^

    Originalmente enviada por -=DouglasteR=-
    Fala q é meio SM3 só por causa do Vertex texture fetch é meio apelativo, tanto q é um recurso q implica em performance e não em "features", e pode ser "remendado" programando alguns ciclos de shaders pra emula-lo.

    Agora isso é triste da ATi ! A 1800XT é boa mas a GTX continua melhor, ainda + com o ForçadoWare 8#.## saindo por ai.

    Agora fica a questão, essa placa com 16 pipes é um monstro, imagina a de 32 pipes ?!

    A 7800 Ultra vai ter Clock de 460/1250 com 512 de ram e deve vir com o cooler da quadro !
    douglas, deve ser + q 460 cara, a evga tem uma versão q é stock 490 e o cooler é single slot

    (akela lá q a placa toda é coberta

  2. # Publicidade
    Publicidade

  3. #127
    Membro
    Info Conteúdo e Citações Jogos Mensageiros
    Registro
    Apr 2001
    Mensagens
    2.331
    Verdinhas
    1

    rss...

    A linha X1800 e GF7800 vão para o cocô, com o Windows Vista, já que não possuem suporte ao WGF ou DX10 ??

    Agora, na boa...desde o lancamento do SM3, que jogo realmente usou decentemente essa feature ?

    Não é uma feature como o HT do P4, dual core, X64, que não tem nenhum jogo atual que realmente se aproveita e nos proporciona alguma melhora de performance ou efeito visual nos jogos ??

  4. #128
    hardMOB Staff - Moderação Avatar de DouglasteR
    Info Conteúdo e Citações Jogos Mensageiros
    BOMsolmito 2018!
    Registro
    Oct 2000
    Mensagens
    15.987
    Verdinhas
    15233

    Re: Re: Uia ^^

    Originalmente enviada por V1P3R_BR4Z1L14N
    douglas, deve ser + q 460 cara, a evga tem uma versão q é stock 490 e o cooler é single slot

    (akela lá q a placa toda é coberta
    To ligado, a minha msm é 490/1300 default da fabrica, e uso 500/1350 diariamente, single slot. Por isso comprei a 7800gtx, excelente placa, a minha ultima Nvidia antes dela tinha sido a 6600gt e antes a Ge2GTS.

    Mas eu axo q a Reference da Nvidia vai ser 460, ou 500 logo, ou como diz o deco, Triple Molex Triple Slot cooling Triple performance pra mostrar o Power of Triple logo pra ATi AEJaeAJEKAEJaeAE

  5. #129
    Membro Avatar de TM99
    Info Conteúdo e Citações Jogos Mensageiros
    Registro
    Oct 1999
    Mensagens
    5.992
    Blogs
    1
    Verdinhas
    298

    Originalmente enviada por vlsantos
    Para mim a ATI lançou os produtos de forma desesperada para não perder o Natal Americano.

    As placas não estão balanceadas para os mercados middle-end e low-end corretamente e com certeza estão sofrendo com os drivers.

    Mas eu vejo muitas coisas boas:

    1- A ATI lançou no mercado core com 90nm, possibiliando clocks maiores e temperaturas menores que a Nvidia.

    2- Parece que a 1800XT mesmo tendo menos pipes consegue uma performance competitiva com a 7800GTX, o que mostra que a arquitetura nova da ATI não é um lixo como estão dizendo.

    3- Acabou aquela guerra que Nvidia tem SM 3.0 e ATI não.

    Se a ATI tivesse conseguido estabilizar o chip com 24/32 pipes a tempo do natal e a 1800XT fosse lançada como middle-end o mercado estaria balançado.

    []´s
    Ta olha oq eu penso..

    1- A ATI lançou no mercado core com 90nm, possibiliando clocks maiores e temperaturas menores que a Nvidia.

    Sim, isso eh verdade, SE ela rodasse no mesmo clock da 7800GTX, como ela ta rodando a 650mhz, essa placa da ATI mesmo em 90 nm gasta MAIS energia e é MAIS QUENTE que a 7800GTX.

    2- Parece que a 1800XT mesmo tendo menos pipes consegue uma performance competitiva com a 7800GTX, o que mostra que a arquitetura nova da ATI não é um lixo como estão dizendo.

    Errado. Em termos de performance por clock ela toma um pau da G70, é fisicamente impossivel ela ser mais rapida com menos pipes.

    Matematica rapida aqui
    A geforce 7800GTX tem 24 pipes, ou seja 50% mais pipes que a x1800XT. Isso da o mesmo valor em poder de processamento de shaders.
    Como uma placa de 16 pipes pode competir com isso? Simples, Clock, a x1800XT tem um clock precisamente 51,16% superior ao da placa da Nvidia.
    Fizeram as contas? os 50% de pipes a mais que a 7800GTX tem são compensados por 51% a mais de clock da x1800XT, oque deixa as placas praticamente esquivalentes em poder de processamento de shaders.

    3- Acabou aquela guerra que Nvidia tem SM 3.0 e ATI não.

    É acabo =], a diferença é que a ATI chego MUITO atrasada..


    4 - Se a ATI tivesse conseguido estabilizar o chip com 24/32 pipes a tempo do natal e a 1800XT fosse lançada como middle-end o mercado estaria balançado.

    Ela rebolo pra fazer x1800XT.. Originalmente essa placa ia ter um clock muito mais baixo.. Oque aconteceu foi que DO NADA a nvidia lançou uma placa com 24 pipes, e honestamente NINGUEM tava esperando uma placa dessas na epoca que ela saiu.. E dai complicou a vida da ATI, que tinha que subir o clock da x1800xt em um processo novo e ela teve que torrar uma fortuna pra fazer o negocio funcionar..

    Foi o mesmo tipo de rasteira que a nvidia tomou quando saiu a 9700pro, foi identico.. la a nvidia q tava usando processo novo e teve q colocar a 5800 com aqueles clocks absurdos e mesmo assim nao chegava na 9700...

    E outra, podem apostar que se a ati tivesse feito uma placa com 24 ou 32 pipes NUNCA ela estaria rodando nesse clock.. os yields ainda seriam ridiculamente baixos...

  6. #130
    Membro Avatar de toledo
    Info Conteúdo e Citações Jogos Mensageiros
    Registro
    May 2004
    Mensagens
    10.304
    Verdinhas
    2612

    Me corrijam se eu tiver errado mas a ATI vai ter problema com o engine do Unreal 3 por causa dessa babaquice , certo ?

    Quote da Nvidia .


    GPU Cloth
    This sample demonstrates how to use Shader Model 3.0 to simulate and render cloth on the GPU. The cloth vertex positions are computed through several pixel shaders and saved into a texture. A vertex shader then reads these positions using Vertex Texture Fetch (VTF) to render the cloth.


    Se o Engine do Unreal 3 for baseado em displacement mapping como estão falando então .....

    http://download.developer.nvidia.com...les_video.html

  7. #131
    Banido
    Info Conteúdo e Citações Jogos Mensageiros
    Registro
    Apr 2003
    Mensagens
    9.791
    Verdinhas
    3

    Originalmente enviada por BlackOmega 99
    Ta olha oq eu penso..

    1- A ATI lançou no mercado core com 90nm, possibiliando clocks maiores e temperaturas menores que a Nvidia.

    Sim, isso eh verdade, SE ela rodasse no mesmo clock da 7800GTX, como ela ta rodando a 650mhz, essa placa da ATI mesmo em 90 nm gasta MAIS energia e é MAIS QUENTE que a 7800GTX.

    2- Parece que a 1800XT mesmo tendo menos pipes consegue uma performance competitiva com a 7800GTX, o que mostra que a arquitetura nova da ATI não é um lixo como estão dizendo.

    Errado. Em termos de performance por clock ela toma um pau da G70, é fisicamente impossivel ela ser mais rapida com menos pipes.

    Matematica rapida aqui
    A geforce 7800GTX tem 24 pipes, ou seja 50% mais pipes que a x1800XT. Isso da o mesmo valor em poder de processamento de shaders.
    Como uma placa de 16 pipes pode competir com isso? Simples, Clock, a x1800XT tem um clock precisamente 51,16% superior ao da placa da Nvidia.
    Fizeram as contas? os 50% de pipes a mais que a 7800GTX tem são compensados por 51% a mais de clock da x1800XT, oque deixa as placas praticamente esquivalentes em poder de processamento de shaders.

    3- Acabou aquela guerra que Nvidia tem SM 3.0 e ATI não.

    É acabo =], a diferença é que a ATI chego MUITO atrasada..


    4 - Se a ATI tivesse conseguido estabilizar o chip com 24/32 pipes a tempo do natal e a 1800XT fosse lançada como middle-end o mercado estaria balançado.

    Ela rebolo pra fazer x1800XT.. Originalmente essa placa ia ter um clock muito mais baixo.. Oque aconteceu foi que DO NADA a nvidia lançou uma placa com 24 pipes, e honestamente NINGUEM tava esperando uma placa dessas na epoca que ela saiu.. E dai complicou a vida da ATI, que tinha que subir o clock da x1800xt em um processo novo e ela teve que torrar uma fortuna pra fazer o negocio funcionar..

    Foi o mesmo tipo de rasteira que a nvidia tomou quando saiu a 9700pro, foi identico.. la a nvidia q tava usando processo novo e teve q colocar a 5800 com aqueles clocks absurdos e mesmo assim nao chegava na 9700...

    E outra, podem apostar que se a ati tivesse feito uma placa com 24 ou 32 pipes NUNCA ela estaria rodando nesse clock.. os yields ainda seriam ridiculamente baixos...

    O projeto original do x1800 era de 24 pipes pro modelo top. 32 nunca foi discutido ate pq o chip 24 pipes so tinha aproveitamento 3% ou seja de cada 100 fabricados 97 foram pro lixo. Dae q a Ati teve problemas e a unica solucao foi puxar o clock da 16 pipes pois fabricar chips de 24 era inviavel, afinal, 8 pipes a 1200mhz ou 16 a 600 mhz teoricamente vao rodar a msm quantidade de instrucoes. Eh como bandwidth/frequencia.

    Ja a 9700 era taaao boa q alem de mal conseguir bater uma g4 com over a Ati ainda teve q se juntar com a M$ pra mudar as specificacoes padrao beta do dx9 pras specs bizarras exatas do r300, senao a placa nao seria nem compativel com dx9.0.0. teria q ser engavetada. Nao existe comparar essa situacao grotesca com nenhuma outra.

    ---


    "Agora, na boa...desde o lancamento do SM3, que jogo realmente usou decentemente essa feature ?"
    Pq essa "feature" era pra ter sido lancada na epoca das fx5800, nao agora. Como a Ati sabotou o Dx e implementou o sm2.0, ficamos anos sem games pq ninguem queria programar nessa porcaria de Api, e agora q finalmente lancaram o sm3.0 ja ta perto demias de lancarem o 4.

    []'s

  8. #132
    Membro Avatar de toledo
    Info Conteúdo e Citações Jogos Mensageiros
    Registro
    May 2004
    Mensagens
    10.304
    Verdinhas
    2612

    http://www.allstarshop.com/shop/prod...PEAVB9MDUJ9DC7

    Ja esta a venda e disponivel em estoque


    Cara pra caralho .

  9. #133
    Membro
    Info Conteúdo e Citações Jogos Mensageiros
    Registro
    Apr 2003
    Mensagens
    3.537
    Verdinhas
    0

    Era de se esperar esse preço nada haver.

  10. #134
    Membro Avatar de toledo
    Info Conteúdo e Citações Jogos Mensageiros
    Registro
    May 2004
    Mensagens
    10.304
    Verdinhas
    2612

    Originalmente enviada por _Darth Krapter_
    Era de se esperar esse preço nada haver.
    Lógico que era .....uma placa pior que a GT com preço de GTX .

  11. #135
    Membro Avatar de DeatH
    Info Conteúdo e Citações Jogos Mensageiros
    GETTUDA CHOPPAH
    Registro
    Dec 1999
    Mensagens
    5.969
    Verdinhas
    759

    pelo q eu andei lendo a ati mandou bem nas placas... mas ta mal das pernas financeiramente, mas deixando isso de lado, pq a discussao eh hardware
    a gente pode resumir essa nova geracao em alguns topicos
    ati ainda nao resolveu seus problemas com opengl
    as placas eskentam mais q as geracoes anteriores
    adapdative AA e HQ AF sao bons trunfos e nao perdem tanto em desempenho kto as geforce (vide review da xbitlabs)
    decode de HDTV eh imbativel
    finalmente sm3.0 , embora os jogos vao demorar ainda pra adotar como padrao
    habilidade de fazer HDR + AA, outro fator q nvidia peca
    precos altos, atrasos e baixa disponibilidade, fora q x1800xt soh estara disponivel no mes q vem

  12. #136
    Membro
    Info Conteúdo e Citações Jogos Mensageiros
    Registro
    Feb 2005
    Mensagens
    1.000
    Verdinhas
    0

    Originalmente enviada por toledo
    http://www.allstarshop.com/shop/prod...PEAVB9MDUJ9DC7

    Ja esta a venda e disponivel em estoque


    Cara pra caralho .
    é porque vc não viu qto vai custar uma X1800XT no JP,75mil yenes no lançamento ,mais de 700 verdinhas.

    desanimou.....

  13. #137
    Membro Avatar de toledo
    Info Conteúdo e Citações Jogos Mensageiros
    Registro
    May 2004
    Mensagens
    10.304
    Verdinhas
    2612

    Originalmente enviada por DeatH
    finalmente sm3.0
    Mais ou menos , não é bem assim . O PS3 done right não é tão right assim .


    Originalmente enviada por PcCI2iminal
    é porque vc não viu qto vai custar uma X1800XT no JP,75mil yenes no lançamento ,mais de 700 verdinhas.

    desanimou.....
    PQP ....ja tava caro quando eu ouvi que ia ser na casa dos 600U$ .

    A ATI tinha que entender que ela chegou atrasada na festa e a concorrencia ta brava . Meio sem lógica esses preços .

  14. #138
    Membro
    Info Conteúdo e Citações Jogos Mensageiros
    Registro
    Sep 2001
    Mensagens
    2.591
    Verdinhas
    1

    Depois que soube que a solução da ATi não é full SM 3.0...
    http://www.techreport.com/onearticle.x/8872

    Ai q tristeza... de um lado temos HDR sem AA... de outro temos uma implementação 'particular' de SM 3.0 que 'falta' funções...
    ATi se preocupou muito com SM 3.0 'pesado', com Dynamic Branches e 'esqueceu' algumas coisas... em testes sintéticos , a X1800XT só tomou pau da GTX... somente em testes do tal Dynamic Branches é que a X1800XT se mostrou realmente em outro nível, ao ponto de uma X1600XT ficar acima de uma GTX!!!

    Today we saw that the Shader Model 3.0 support was really done for good: just look how the RADEON X1600 XT manages to leave behind a far more expensive and enhanced GeForce 7800 GTX during dynamic branching and pixel shaders 3.0 processing. By XbitLabs

    Se os desenvolvedores não se queixarem do SM 3.0 'tosko' da ATi, beleza... caso contrário...

    Incrível, a ATi fez aquela maravilha da GPU do X360 e não teve a capacidade de fazer uma GPU realmente 'boa' para PCs. Eu diria que a R520 é 'regular'.

    Decepção a série R5XX... NÃO ME VENHAM FALAR QUE É UMA NOVA FX5800! mas que ficou devendo muito, ficou...

    fui

  15. #139
    Membro
    Info Conteúdo e Citações Jogos Mensageiros
    Registro
    Feb 2005
    Mensagens
    1.000
    Verdinhas
    0

    Originalmente enviada por toledo
    Mais ou menos , não é bem assim . O PS3 done right não é tão right assim .




    PQP ....ja tava caro quando eu ouvi que ia ser na casa dos 600U$ .

    A ATI tinha que entender que ela chegou atrasada na festa e a concorrencia ta brava . Meio sem lógica esses preços .
    no JP sempre é mais caro que nos EUA,

    enquanto as GTX cairam bem olha qto cobram por uma Asus X850XT PE

    http://www.coneco.net/PriceList.asp?COM_ID=1050415037


    700-780 dinheiros,isso sim é sem noção de nada.

  16. #140
    Membro Avatar de TM99
    Info Conteúdo e Citações Jogos Mensageiros
    Registro
    Oct 1999
    Mensagens
    5.992
    Blogs
    1
    Verdinhas
    298

    Originalmente enviada por Deco Rj
    O projeto original do x1800 era de 24 pipes pro modelo top. 32 nunca foi discutido ate pq o chip 24 pipes so tinha aproveitamento 3% ou seja de cada 100 fabricados 97 foram pro lixo. Dae q a Ati teve problemas e a unica solucao foi puxar o clock da 16 pipes pois fabricar chips de 24 era inviavel, afinal, 8 pipes a 1200mhz ou 16 a 600 mhz teoricamente vao rodar a msm quantidade de instrucoes. Eh como bandwidth/frequencia.

    Ja a 9700 era taaao boa q alem de mal conseguir bater uma g4 com over a Ati ainda teve q se juntar com a M$ pra mudar as specificacoes padrao beta do dx9 pras specs bizarras exatas do r300, senao a placa nao seria nem compativel com dx9.0.0. teria q ser engavetada. Nao existe comparar essa situacao grotesca com nenhuma outra.

    ---




    Pq essa "feature" era pra ter sido lancada na epoca das fx5800, nao agora. Como a Ati sabotou o Dx e implementou o sm2.0, ficamos anos sem games pq ninguem queria programar nessa porcaria de Api, e agora q finalmente lancaram o sm3.0 ja ta perto demias de lancarem o 4.

    []'s
    Se ta me tirando neh?

    Cara não vem comparar geforce 4 com radeon 9700, a 9700 eh MTO mais forte, se for pra dar overclock a 9700 tambem aguentava.. E a Geforce TI 4600 mesmo com OVER nao batia nem a 9500pro e vc sabe disso.

    E para de achar q a ATI eh do mal, pq nao existe isso.. A nvidia q foi BURRA naquela epoca e brigou com a MS pq ELA queria forçar alguns specs dela no DX9 (ja que ela tinha criado o dx8 praticamente sosinha) e quando a MS preferiu alguns features do DX9 a nvidia fez ** doce e saiu do comite do DX9, vc tambem sabe disso. Depois ela CHUTOU os specs do DX9 e deu naquela merda q foi a serie FX.

    O projeto original da x1800xt era 16 pipes mesmo, a r580, que ja ta pronta, é que deve ser 24 pipes.

  17. #141
    Membro Avatar de XOTISNEGUER
    Info Conteúdo e Citações Jogos Mensageiros
    OVER 9000 NG/DL
    Registro
    Feb 2004
    Mensagens
    20.664
    Verdinhas
    6177

    Originalmente enviada por BlackOmega 99
    Se ta me tirando neh?

    Cara não vem comparar geforce 4 com radeon 9700, a 9700 eh MTO mais forte, se for pra dar overclock a 9700 tambem aguentava.. E a Geforce TI 4600 mesmo com OVER nao batia nem a 9500pro e vc sabe disso.

    E para de achar q a ATI eh do mal, pq nao existe isso.. A nvidia q foi BURRA naquela epoca e brigou com a MS pq ELA queria forçar alguns specs dela no DX9 (ja que ela tinha criado o dx8 praticamente sosinha) e quando a MS preferiu alguns features do DX9 a nvidia fez ** doce e saiu do comite do DX9, vc tambem sabe disso. Depois ela CHUTOU os specs do DX9 e deu naquela merda q foi a serie FX.

    O projeto original da x1800xt era 16 pipes mesmo, a r580, que ja ta pronta, é que deve ser 24 pipes.
    como vc sabe que ja ta pronta?
    tem como postar links por gentileza para avaliarmos a r580!?

  18. #142
    Membro
    Info Conteúdo e Citações Jogos Mensageiros
    Registro
    Sep 2001
    Mensagens
    2.591
    Verdinhas
    1

    O Deco sempre volta pra falar 'do passado'. Ainda me lembro que dizia que a GF4600TI era tão boa quanto uma R9700PRO... Olha a placa que ele tentou menosprezar... a melhor já lançada...

    Esse papo que a M$ 'cortou' o SM 2.0 pra ajudar a ATi, eu quero provas concretas. Isso é balela. Quer um exemplo concreto?

    A primeira Radeon. A ATi esperava que o DX8 aceitasse como especificação mínima o SM 1.0. Mas a M$ não aceitou. A Radeon original não podia ser considerada DX8. Ela era mais avançada que uma GF2 GTS/Ultra, mas graças a M$ a ATI ficou prejudicada.

    A ATi tentou lançar uma placa mais avançada e ficou no meio do caminho. Por isso cuidado! Se essa G80 está mesmo em avançado estágio de desenvolvimento, tomara que a nVidia tenha colocado todos os recursos possíveis, pq se não, bye bye. Cuidado com a M$. O fato da M$ ter aceitado menos recursos no SM 2.0 não foi coisa ruim, duh! Tanto é que depois a nVidia pode lançar algo bem mais avançado chamado SM 3.0.

    A M$ 'ferrou' a ATi uma vez. E em outras duas ocasiões, no lançamento da R8500 e da R9700, a M$ foi 'tolerante' e aceitou as soluções da ATi, introduzindo o DX 8.1 e o DX 9, respectivamente.

    E esse papo que a R520 iria ter 32 ou 24 pipes, HOJE sabemos que sempre foi papo de fanboy. NÃO HÁ NENHUMA CONFIRMAÇÃO OU EVIDÊNCIA QUE OS CHIP TENHA PIPES DESABILITADOS. Então só posso dizer o que eu vejo: a nVidia com uma arquitetura muuuuuito melhor para os jogos de hoje. Minha opinião. Mas no futuro próximo, não.

    E sinceramente, a 7800 é muuuuuuuuuuuuuuuuuuito melhor que a 6800 executando shaders. Esse papo de chamar a 7800 de NV40 A2 é besteira, a 7800 tem mini-ALUs, etc, a nVidia pesquisou as operações mais comuns nos shaders e procurou acelerá-las.
    Se sair algum jogo com SM 3.0 'de verdade', com shaders longos e Dynamic Branches, NÓS saberemos a verdade... o futuro ninguém sabe... alguém sabia que a FX seria um fiasco em 'full' SM 2.0? NÃO!


    fui

  19. #143
    Membro
    Info Conteúdo e Citações Jogos Mensageiros
    Registro
    Sep 2001
    Mensagens
    2.591
    Verdinhas
    1

    Originalmente enviada por FastMHZ
    rss...

    A linha X1800 e GF7800 vão para o cocô, com o Windows Vista, já que não possuem suporte ao WGF ou DX10 ??

    Agora, na boa...desde o lancamento do SM3, que jogo realmente usou decentemente essa feature ?

    Não é uma feature como o HT do P4, dual core, X64, que não tem nenhum jogo atual que realmente se aproveita e nos proporciona alguma melhora de performance ou efeito visual nos jogos ??
    Você está absolutamente certo.
    DX 10 , SM 4.0, WGF 2.0, chame do que quiser. A M$ quer o Windows Vista como uma plataforma para jogos. Quer que o DX10 dure muito tempo. Quer controlar todas as features. SM 4.0 vai durar muuuito mais tempo que os outros shaders models duraram. E incrível, SM 3.0 vai morrer sem ter nem sido explorado... que triste!!! A não ser que em 2006 venha alguma surpresa! Só vejo Unreal 3.0 como uma engine promissora usando SM 3.0... só ela mesmo... o tempo de lançar UT2007... e só... se o povo da Crytek já tá pensando em DX10...
    STALKER deve estar a mesma merda que estava... os jogos usando a engine do DOOM3 mal precisam de shaders... a Source vai ter um suportezinho a SM 3.0... cadê o SM 3.0???

    Eu NEGO tudo que disse, se o Duke Nuke Forever ficar show usando SM 3.0 'de verdade' !!!


    fui

  20. #144
    Membro
    Info Conteúdo e Citações Jogos Mensageiros
    Registro
    Jan 2002
    Mensagens
    22.949
    Verdinhas
    345

    Originalmente enviada por CyberdemonXXX
    como vc sabe que ja ta pronta?
    tem como postar links por gentileza para avaliarmos a r580!?
    É a mesma certeza que o deco tem que a Nvidia já tem placa DX10 / WGF / 90nm funcionando... Nenhuma.

    *edit* - E existe uma diferença entre placas ES e placas prontas

  21. #145
    Banido
    Info Conteúdo e Citações Jogos Mensageiros
    Registro
    Apr 2003
    Mensagens
    9.791
    Verdinhas
    3

    Originalmente enviada por BlackOmega 99
    Se ta me tirando neh?

    Cara não vem comparar geforce 4 com radeon 9700, a 9700 eh MTO mais forte, se for pra dar overclock a 9700 tambem aguentava.. E a Geforce TI 4600 mesmo com OVER nao batia nem a 9500pro e vc sabe disso.

    E para de achar q a ATI eh do mal, pq nao existe isso.. A nvidia q foi BURRA naquela epoca e brigou com a MS pq ELA queria forçar alguns specs dela no DX9 (ja que ela tinha criado o dx8 praticamente sosinha) e quando a MS preferiu alguns features do DX9 a nvidia fez ** doce e saiu do comite do DX9, vc tambem sabe disso. Depois ela CHUTOU os specs do DX9 e deu naquela merda q foi a serie FX.

    O projeto original da x1800xt era 16 pipes mesmo, a r580, que ja ta pronta, é que deve ser 24 pipes.
    eu disse q "mal batia" a g4 com over, o q eh a mais pura verdade, pra uma placa de outra geracao nao era nada demais.. se a M$ nao mudasse a spec do dx9 seria uma placa inuti, o q aconteceu com toda a serie R300 e derivados quando a spec voltou ao normal, nao roda Dx9 full e nao roda ogl direito..otimo chip msm, pra ter alguma sobrevida precisou da M$ fuder as specs do directx e a industria e os gamers em geral..Agradecam a essa grande placa os atrasos e a total falta de games durante o dominio desse maravilhoso chip q nos deu a avancadissima source engine.

    O projeto da r500 era 24 pipes como nao conseguiram produzir ficou 16 msm.. Se vc acha q a Ati ia tentar bater a 7800 com 16 pipes vc ta pra la de enganado.

    --

    Provas q a M$ capou o dx9 pra beneficiar a Ati?

    LOL...Dx9 sm2 eh nada menos q as specs EXATAS do r300..eh so vc ver as specs , a M$ mudou a precisao 16/32 bits do dx9 beta do nada pra spec exata do r300... mais prova q isso impossivel.

    Enquanto isso HJ a tecnologia derivada da Fx ta ae espancando a concorrencia..neguinho ainda acha a 9700 "a melhor placa ja feita" lol...se esquece q na epoca tomava pau da 5800 em ut2003 q era O jogo dx da epoca...em ogl nao preciso nem comentar, pq o "lixo" das Fx roda doom3 entupido de efeitos maravilhosamente bem enquanto a "otima" r300 ta enterrada e enterrando a Ati junto com ela ate hj eauhea..

    Mas sinceramente? nao me interessa opniao pro-Ati, pra mim fans da Ati tao colhendo o q plantaram e isso eh perfeito.

    Quanto mais encherem a bola de chips como R300 melhor, quanto mais encherem a bola de uma empresa altamente desonesta e incentivarem a Ati a fazer merda, melhor. Pq assim, ou ela vai logo a falencia, ou aprende a fazer placa direito sem precisar influir em Api e sabotar o mercado.

    A mim so resta olhar pro tamanho do preju q a serie r300 deu pros gamers e pra Ati e rir de quem ainda tem alguma fe nessa marca.

    Originalmente enviada por V1PM4N
    Você está absolutamente certo.
    DX 10 , SM 4.0, WGF 2.0, chame do que quiser. A M$ quer o Windows Vista como uma plataforma para jogos. Quer que o DX10 dure muito tempo. Quer controlar todas as features. SM 4.0 vai durar muuuito mais tempo que os outros shaders models duraram. E incrível, SM 3.0 vai morrer sem ter nem sido explorado... que triste!!! A não ser que em 2006 venha alguma surpresa! Só vejo Unreal 3.0 como uma engine promissora usando SM 3.0... só ela mesmo... o tempo de lançar UT2007... e só... se o povo da Crytek já tá pensando em DX10...
    STALKER deve estar a mesma merda que estava... os jogos usando a engine do DOOM3 mal precisam de shaders... a Source vai ter um suportezinho a SM 3.0... cadê o SM 3.0???

    Eu NEGO tudo que disse, se o Duke Nuke Forever ficar show usando SM 3.0 'de verdade' !!!


    fui
    Lol. chegou no ponto.

    Sm3 nao foi usado pq tinha um chip maravilhoso chamado r300 q nao conseguia rodar, por isso ficamos todos empacados no Sm2 anos e o Sm3 q deveria ter entrado bem mais cedo corre o risco de nem dar as caras..

    A "merda" da Fx ja tava tentando implementar funcionalidades sm3 desdaquela epoca, mas o maravilhoso melhor chip do mundo apareceu, mudou a spec, e deu nisso ae.

    Depois neguinho nao sabe pq eu tenho raiva da Ati, defendo a serie Fx e "menosprezo" o r300..

    []'s

  22. #146
    Membro
    Info Conteúdo e Citações Jogos Mensageiros
    Registro
    Sep 2002
    Mensagens
    1.069
    Verdinhas
    1

    Originalmente enviada por Deco Rj
    Depois neguinho nao sabe pq eu tenho raiva da Ati, defendo a serie Fx e "menosprezo" o r300..
    Pq vc eh fanboy da nvdia?

  23. #147
    Membro
    Info Conteúdo e Citações Jogos Mensageiros
    Registro
    Sep 2001
    Mensagens
    2.591
    Verdinhas
    1

    Graças a Deus que a M$ não chamou de SM 2.0 a especificação das FXs!!! Teria sido um horror!!! Ela não consegue nem fazer uma 'água' no HL2, imagine se a situação iria melhorar com shaders longos e o escambau! Mas Deco, pq você NUNCA citou a história da Radeon original em sua justificativa?

    E a nVidia na época da TNT, que clamava suporte de cores 32bits, mas que só ganhava das Voodoo em 16 bits, renderizando tudo, digamos, de uma forma toska!!! Nossa, nas GF1 e 2 então, cores em 16 bits significava 'esverdeado'!!!!

    Mas a situação é grave, meu caríssimo amigo. A falta do Vertex Texture Fetch já pode ser sentida! Aparentemente o Pacific Fighters já usa essa função (justamente o único jogo até o momento que mostrava uma diferença real entre SM 2.0 e SM 3.0). Mas a ATi tem uma esperança! É o 'R2VB' Render to Vertex Buffer!!! Uma extensão 'não-oficial' do DX!!!
    A M$, VOCÊ TEM TODA RAZÃO, é muito complacente com a ATi. Mas tem motivos... a nVidia processou a M$ por causa do Xbox... normal esse comportamento... Eu só lembro a você que nem sempre foi assim...

    fui

  24. #148
    Banido
    Info Conteúdo e Citações Jogos Mensageiros
    Registro
    Apr 2003
    Mensagens
    9.791
    Verdinhas
    3

    Originalmente enviada por zuelber
    Pq vc eh fanboy da nvdia?
    Pq eu sou fanboy da 3dfx, da Id, do Ogl, gosto de mexer com 3d, admiro quem tem paciencia pra linux, odeio directx, odeio a M$, odeio 3dmark e odeio gente mentirosa. Pq a Nv nunca tentou fuder com o mercado de games em beneficio proprio como a Ati ajudou a M$ a fazer.

    Pq a Ati nunca contribuiu uma virgula pra melhorar uma engine de game ou fazer efeitos nos jogos, pelo contrario tudo q a Ati criou ate hj nao deu em nada, a unica engine q a Ati participou da criacao eh uma bela duma merda. (source)

    Pq enquanto a Ati se une com bostas sem carater feito Gabe Newell, 3DmArk, Microsoft e B3d, pra enganar gamer trouxa e se dar bem, a nv mandou esse povo todo pra pqp e eh a responsavel pela unica engine decente atual (d3), assim como pelo unreal3 q provavelmente eh a unica engine boa no horizonte..

    Pq me sinto enganado quando a Ati dizia q o Sm2/dx9 era o futuro, e o Hl2 ia sair com graficos lindos e Hdr, q 24bits era suficiente pra tudo..q suas placas eram full tudo, sem xits e etc e era TUDO mentira.

    Sei la tenho milhoes de motivos.. nao me importo de ser chamado de fanboy, gracas a deus eu tenho discernimento pra nao ser feito de palhaco e tudo q eu esperava da Nv eu to vendo acontecer..

    Ja quem confiou/era fan da Ati ta comendo a merda q ajudou a plantar, e fico muito feliz por isso.

    Originalmente enviada por V1PM4N
    Graças a Deus que a M$ não chamou de SM 2.0 a especificação das FXs!!! Teria sido um horror!!! Ela não consegue nem fazer uma 'água' no HL2, imagine se a situação iria melhorar com shaders longos e o escambau! Mas Deco, pq você NUNCA citou a história da Radeon original em sua justificativa?

    E a nVidia na época da TNT, que clamava suporte de cores 32bits, mas que só ganhava das Voodoo em 16 bits, renderizando tudo, digamos, de uma forma toska!!! Nossa, nas GF1 e 2 então, cores em 16 bits significava 'esverdeado'!!!!

    Mas a situação é grave, meu caríssimo amigo. A falta do Vertex Texture Fetch já pode ser sentida! Aparentemente o Pacific Fighters já usa essa função (justamente o único jogo até o momento que mostrava uma diferença real entre SM 2.0 e SM 3.0). Mas a ATi tem uma esperança! É o 'R2VB' Render to Vertex Buffer!!! Uma extensão 'não-oficial' do DX!!!
    A M$, VOCÊ TEM TODA RAZÃO, é muito complacente com a ATi. Mas tem motivos... a nVidia processou a M$ por causa do Xbox... normal esse comportamento... Eu só lembro a você que nem sempre foi assim...

    fui
    Ainda bem q a Fx nao foi feita pra rodar a agua ridicula do Hl2..de longe eh geometrizada, de perto da pra ver os quadrados da resolucao toskesima..engracado q a Fx e ate a g4 rodam a agua do Farcry q eh 1 zilhao de x melhor sem problema nenhum, isso pra nao falar os efeitos do doom3 q sao ligeiramente superiores q os do hl2...

    Eu nao citei nada dessa epoca pq nao conheco entao nao posso falar. So comecei a me interessar por graficos da voodoo 5500 pra frente, e nessa epoca nem sabia q existia Ati. Alias bons tempos q vc comprava a placa por 300 dolares e achava caro e o mercado era restrito, nao o gado ignorante q compra vga hj em dia.

    De qqr forma, o assunto r300 x fx tem tudo a ver pq ta diretamente relacionado com a tecnologia das Api's hj em dia, q eh o motivo da Ati ter se dado mal na geracao atual enquanto a Nv ta sussegada seguindo o maldito padrao "normal" do directx q nunca deveria ter sido mudado..



    []'s

  25. #149
    Membro
    Info Conteúdo e Citações Jogos Mensageiros
    Registro
    Sep 2001
    Mensagens
    2.591
    Verdinhas
    1

    Bom Deco, você tinha melhorado, mas enfim, começou a falar que odeia D3D, o Gabe, a ATi... vc ama OpenGL, Carmack e nVidia... Pq?
    você tem seu mundo e suas justificativas... eu ficaria feliz se vc só odiasse a ATi. Aliás, é estranho. Não sei o que é odiar uma marca. Gosto tanto da nVidia quanto da ATi. Tanto da AMD quanto da Intel (por isso fiz questão de inverter a CPU e VGA na minha última 'compra').
    Qdo uma das empresas se dá bem, nenhum PR delas me convidou para uma festa. O que eu odeio são coisas concretas. Exemplo: os chipsets 915 da Intel que não suportam dual-core. Eu fiquei PUTO com isso, sabendo que a AMD não teve esse problema.
    Olha, a água do HL2 não é geometrizada, é puro pixel shader... acho que você está confundindo as coisas...

    Cada um admira aquilo que quiser... por mim HL2 podia ser ainda pior graficamente, que no meu entender, na questão game (que é o que importa), o cara fez algo melhor que Doom3, não faz mal que não tem AI (Doom3 tb não tem!), que é tudo script, achei HL2 excelente e Doom3 'bobo'! Agradeço mais ao Gabe a diversão que ele me proporcionou do que ao Carmack.

    Mas velho , com o DX10, finito, c'est fini, ninguém mais vai inventar nada a não ser a M$. Tudo será 'claro'.

    Enfim, este é meu último post mesmo. Queria discutir o problema da falta de VTF, isso é o que eu esperaria de um crítico, mas como ninguém sobe o nível...

    fui

  26. #150
    Membro
    Info Conteúdo e Citações Jogos Mensageiros
    Registro
    Jan 2002
    Mensagens
    22.949
    Verdinhas
    345

    Originalmente enviada por Deco Rj
    Pq eu sou fanboy da 3dfx, da Id, do Ogl, gosto de mexer com 3d, admiro quem tem paciencia pra linux, odeio directx, odeio a M$, odeio 3dmark e odeio gente mentirosa. Pq a Nv nunca tentou fuder com o mercado de games em beneficio proprio como a Ati ajudou a M$ a fazer.

    Pq a Ati nunca contribuiu uma virgula pra melhorar uma engine de game ou fazer efeitos nos jogos, pelo contrario tudo q a Ati criou ate hj nao deu em nada, a unica engine q a Ati participou da criacao eh uma bela duma merda. (source)

    Pq enquanto a Ati se une com bostas sem carater feito Gabe Newell, 3DmArk, Microsoft e B3d, pra enganar gamer trouxa e se dar bem, a nv mandou esse povo todo pra pqp e eh a responsavel pela unica engine decente atual (d3), assim como pelo unreal3 q provavelmente eh a unica engine boa no horizonte..
    Deco, sinceramente, eu tb tô + do lado de Id, ogl, Carmack e etc, mas a Nvidia não teve nada a ver com a engine do D3... Seria a mesma coisa se a ATI não tivesse vazado aquele alpha (erro maior não há haha), a engine continuaria sendo foda, só por ter sido criada por quem... O cara.

    De resto, concordo, mas a ATI só entrou de vilã na história e fudeu tudo pq fora ela, não tem ninguém pra peitar NV.

+ Responder Tópico Ir para o Fórum
Página 6 de 7 Primeira ... 4 5 6 7 Última

Assuntos do tópico

Compartilhar

Permissões