+ Responder Tópico
Página 11 de 16 Primeira ... 9 10 11 12 13 ... Última
  1. #251
    Membro
    Info Conteúdo e Citações Jogos Mensageiros
    Registro
    Mar 2003
    Mensagens
    20.932
    Verdinhas
    489

    Citação Citando kakaroto(dbz) Ver mensagem
    Tesselation é o retorno triunfal do ATI Truform®
    é... bons tempos do truform, eu usava no CS 1.3, as armas ficavam gordas e deformadas mas eu achava bonito

    hardware tesselation é algo em que a ati esta trabalhando a tempos e se bem aplicado vai ter otimos resultados.

  2. # Publicidade
    Publicidade

  3. #252
    Membro Avatar de kakaroto(dbz)
    Autor do tópico
    Info Conteúdo e Citações Jogos Mensageiros
    O mais forte do universo!
    Registro
    Jun 2002
    Mensagens
    14.766
    Verdinhas
    444

    Citação Citando Spectrobozo Ver mensagem
    é... bons tempos do truform, eu usava no CS 1.3, as armas ficavam gordas e deformadas mas eu achava bonito

    hardware tesselation é algo em que a ati esta trabalhando a tempos e se bem aplicado vai ter otimos resultados.
    esse bug da "granada gordinha" so tinha no CS..... da uma olhada na wikipedia, varios jogos usaram a tecnologia com resultados legais para a epoca

  4. #253
    Membro
    Info Conteúdo e Citações Jogos Mensageiros
    Registro
    Mar 2003
    Mensagens
    20.932
    Verdinhas
    489

    Citação Citando kakaroto(dbz) Ver mensagem
    esse bug da "granada gordinha" so tinha no CS..... da uma olhada na wikipedia, varios jogos usaram a tecnologia com resultados legais para a epoca
    sim eu sei, lembro do tech demo do golfinho que era legal e etc

  5. #254
    Membro Avatar de XOTISNEGUER
    Info Conteúdo e Citações Jogos Mensageiros
    OVER 9000 NG/DL
    Registro
    Feb 2004
    Mensagens
    20.666
    Verdinhas
    6177

    tenho uma duvida... por que nao fazem vga single core 512 bits? eu imagino que a performance iria aumentar infinitamente...

  6. #255
    Membro
    Info Conteúdo e Citações Jogos Mensageiros
    Registro
    Mar 2003
    Mensagens
    20.932
    Verdinhas
    489

    Citação Citando Patrycinha Ver mensagem
    tenho uma duvida... por que nao fazem vga single core 512 bits? eu imagino que a performance iria aumentar infinitamente...
    primeiro a gpu seria provavelmente maior, o PCB mais complexo, o consumo maior, então custos?!

    o negocio é que a HD5800 usa gddr5 que teoricamente dobra a banda de gddr3 no mesmo clock (por isso consideramos o efetivo x4 nao x2) e a ati diz que a HD4870/90 nao era limitada por memory bandwidth (e sim pelo poder da gpu), entao a HD5800 alem disso o clock de mem um pouco mais alto, entao provavelmente nao melhoraria "infinitamente"...

  7. #256
    Membro Avatar de Diablero
    Info Conteúdo e Citações Jogos Mensageiros
    Exorcista
    Registro
    Jul 2004
    Mensagens
    7.336
    Verdinhas
    1700

    fazer 512bits eleva muito o custo da placa, muito mais complicado. Lembra das 2900XT?

  8. #257
    Membro
    Info Conteúdo e Citações Jogos Mensageiros
    Registro
    Jun 2002
    Mensagens
    1.870
    Verdinhas
    16

    Citação Citando Patrycinha Ver mensagem
    tenho uma duvida... por que nao fazem vga single core 512 bits? eu imagino que a performance iria aumentar infinitamente...
    Segundo a ATI, a 4890 já tinha banda de memória sobrando, então foi só aumentar o clock das memórias e chegaram em uma banda de memória equilibrada para a 5870... Lembre-se também que GDDR5 é 2x mais rápida por clock que as outras DDR... Ou seja, uma GDDR5 de 1GHz equivale a uma DDR3 de 2GHz, ou, uma GDDR5 de 1GHz em barramento 256 bits equivale a uma DDR3 de 1GHz em barramento 512bits.

  9. #258
    Membro Avatar de hirano
    Info Conteúdo e Citações Jogos Mensageiros
    hiranosan
    Registro
    Nov 2007
    Mensagens
    4.020
    Verdinhas
    251

    Citação Citando Spectrobozo Ver mensagem
    primeiro a gpu seria provavelmente maior, o PCB mais complexo, o consumo maior, então custos?!

    o negocio é que a HD5800 usa gddr5 que teoricamente dobra a banda de gddr3 no mesmo clock (por isso consideramos o efetivo x4 nao x2) e a ati diz que a HD4870/90 nao era limitada por memory bandwidth (e sim pelo poder da gpu), entao a HD5800 alem disso o clock de mem um pouco mais alto, entao provavelmente nao melhoraria "infinitamente"...
    Também penso assim, a ATI melhorou a 5870 nos pontos onde tinha gargalo (chegou a dobrar várias especificações em comparação com a 4870/90). Se não fizeram 512 bits era ou porque não precisou ou porque não valia a pena (falando de custo beneficio)

  10. #259
    Membro
    Info Conteúdo e Citações Jogos Mensageiros
    Registro
    Feb 2002
    Mensagens
    6.941
    Verdinhas
    533

    Citação Citando Patrycinha Ver mensagem
    tenho uma duvida... por que nao fazem vga single core 512 bits? eu imagino que a performance iria aumentar infinitamente...
    Quando lançaram a 2900xt achei que iria estuprar todas as outras com seus 512 bits....Não sei o que deu, melhor, o que não deu...
    A Matrox também lançou uma há muitos anos atrás.

  11. #260
    Membro Avatar de Cherno Alpha
    Info Conteúdo e Citações Jogos Mensageiros
    U.S.S.R.
    Registro
    Jan 2003
    Mensagens
    14.594
    Verdinhas
    1854

    Acho q o segmento TOP deveria adotar 512-bit. Dessa forma seriam realmente TOPS ao contrário do q temos atualmente onde são apenas overclocks e uns shaders a mais.

    Proponho:

    - 128-bit p/ low-end
    - 256-bit p/ mid
    - 512-bit p/ top

  12. #261
    Membro
    Info Conteúdo e Citações Jogos Mensageiros
    Registro
    Mar 2003
    Mensagens
    20.932
    Verdinhas
    489

    Citação Citando Apoca Ver mensagem
    Acho q o segmento TOP deveria adotar 512-bit. Dessa forma seriam realmente TOPS ao contrário do q temos atualmente onde são apenas overclocks e uns shaders a mais.

    Proponho:

    - 128-bit p/ low-end
    - 256-bit p/ mid
    - 512-bit p/ top
    para ser top so precisa da melhor performance, como chegam la nao é o mais importante,
    as vezes acho engraçado como alguns se apegam tanto a apenas esse aspecto das placas...

  13. #262
    Membro Avatar de hirano
    Info Conteúdo e Citações Jogos Mensageiros
    hiranosan
    Registro
    Nov 2007
    Mensagens
    4.020
    Verdinhas
    251

    Os dois maiores "pega leigos" do mundo das VGAs são
    1) Quantidade de memória (Uau, minha 8600GT tem 512 MB de RAM!!!1)
    2) Interface de memória (5870 tem 256 bits? LOL fail!11!)

    As VGAs tem de ser melhoradas onde tem gargalo.

  14. #263
    Membro Avatar de Cherno Alpha
    Info Conteúdo e Citações Jogos Mensageiros
    U.S.S.R.
    Registro
    Jan 2003
    Mensagens
    14.594
    Verdinhas
    1854

    Citação Citando Spectrobozo Ver mensagem
    para ser top so precisa da melhor performance, como chegam la nao é o mais importante,
    as vezes acho engraçado como alguns se apegam tanto a apenas esse aspecto das placas...
    Certamente um R870 @ 512-bit faria dele inalcançável por qualquer mid, com o over q fosse.

    Talvez assim haveria mais justiça com quem mantém o mercado top.

  15. #264
    Membro Avatar de Mandarin_bu
    Info Conteúdo e Citações Jogos Mensageiros
    Registro
    Apr 2003
    Mensagens
    1.206
    Verdinhas
    2

    Bah, tenho interesse em usar ATI, mas com o stereoscopic 3D da nvidia, desisti.
    Mesmo usando óculos porco azul/vermelho já achei foda, bem que a ATI poderia dar um suporte a isso, já que em teoria é só software...A profundidade do jogo fica diferente...Muito bom, quem dirá com 3D vision...Como a ATI agora oferece esse esquema de multi displays acho que eles podem investir nisso também, só esperar algum pronunciamento...Sei lá. XD

  16. #265
    Membro Avatar de DeatH
    Info Conteúdo e Citações Jogos Mensageiros
    GETTUDA CHOPPAH
    Registro
    Dec 1999
    Mensagens
    5.969
    Verdinhas
    757

    finalmente um executivo da nvidia "desmentiu" de que os yields tavam ruins, mas ele nao revelou qual era a porcentagem por wafer...
    e me parece q o GT300 nao vai ter DX11, to comecando a sacar a nvidia, vo ate fazer uma profecia:
    eles vao fazer do CUDA uma API de mesmo nivel de directX e OGL que nem a 3dFX fez ao criar o GLIDE, isso explica a falta de interesse no DX11 e outros aspectos
    mas eu acho q isso ainda vai levar uns anos e se isso se tornar verdade, eu considero esse movimento temerario

  17. #266
    Membro Avatar de Cherno Alpha
    Info Conteúdo e Citações Jogos Mensageiros
    U.S.S.R.
    Registro
    Jan 2003
    Mensagens
    14.594
    Verdinhas
    1854

    Citação Citando DeatH Ver mensagem
    finalmente um executivo da nvidia "desmentiu" de que os yields tavam ruins, mas ele nao revelou qual era a porcentagem por wafer...
    e me parece q o GT300 nao vai ter DX11, to comecando a sacar a nvidia, vo ate fazer uma profecia:
    eles vao fazer do CUDA uma API de mesmo nivel de directX e OGL que nem a 3dFX fez ao criar o GLIDE, isso explica a falta de interesse no DX11 e outros aspectos
    mas eu acho q isso ainda vai levar uns anos e se isso se tornar verdade, eu considero esse movimento temerario
    Teoria da conspiração.

    Olha, eu sempre gostei mto mais de OGL a DX porém fazem uns 3 anos q sequer vejo algo em OGL (não q não tenha saído mas sim de não ter visto msm). Ao invés de reinventar a roda ela não poderia turbinar o maior concorrente do DX?

    Enfim, qdo falamos de CUDA, falamos de plataforma voltada a aplicações de porte colossal. Não acredito que se algo seja criado no intuito de desenvolver games que seja p/ concorrer diretamente mas sim como opção, um "plus".

  18. #267
    Membro Avatar de DeatH
    Info Conteúdo e Citações Jogos Mensageiros
    GETTUDA CHOPPAH
    Registro
    Dec 1999
    Mensagens
    5.969
    Verdinhas
    757

    Citação Citando Apoca Ver mensagem
    Teoria da conspiração.

    Olha, eu sempre gostei mto mais de OGL a DX porém fazem uns 3 anos q sequer vejo algo em OGL (não q não tenha saído mas sim de não ter visto msm). Ao invés de reinventar a roda ela não poderia turbinar o maior concorrente do DX?

    Enfim, qdo falamos de CUDA, falamos de plataforma voltada a aplicações de porte colossal. Não acredito que se algo seja criado no intuito de desenvolver games que seja p/ concorrer diretamente mas sim como opção, um "plus".
    ah kra mas pra uma empresa prefirir um "plus" do q atualizar a API...ai tem coisa

  19. #268
    Membro
    Info Conteúdo e Citações Jogos Mensageiros
    Registro
    Jul 2004
    Mensagens
    7.314
    Verdinhas
    2306

    Citação Citando DeatH Ver mensagem
    ah kra mas pra uma empresa prefirir um "plus" do q atualizar a API...ai tem coisa
    Quem falou que GT300 não vai suportar DX11?
    Vc tem a fonte da informação?
    Até agora os rumores só apontam que vai suportar DX11

  20. #269
    Membro Avatar de DeatH
    Info Conteúdo e Citações Jogos Mensageiros
    GETTUDA CHOPPAH
    Registro
    Dec 1999
    Mensagens
    5.969
    Verdinhas
    757

    Citação Citando DVSV Ver mensagem
    Quem falou que GT300 não vai suportar DX11?
    Vc tem a fonte da informação?
    Até agora os rumores só apontam que vai suportar DX11
    hm
    isso contradiz as ultimas afirmações da nvidia, dizendo q o DX11 é menos importante q o PhysX
    e como vc mesmo disse estamos falando de rumores e boatos, assim como eu nao tenho a fonte vc tb nao
    como eu disse no meu outro post foi apenas uma previsao q eu fiz, nao tenho certeza de nada filho

  21. #270
    Membro Avatar de Diablero
    Info Conteúdo e Citações Jogos Mensageiros
    Exorcista
    Registro
    Jul 2004
    Mensagens
    7.336
    Verdinhas
    1700

    Nvidia, quando tem uma tecnologia X, faz uma propaganda bem alta, mas quando nao tem, fala q eh nao eh relevante e deixa de lado, gostei muito dessa entrevista:

    Obiviamente a Nvidia nao desmentiu o negocio dos Yelds, se fosse eles teriam feito isso na hora, e nao quase 2 meses depois..., eles tao com problema nas placas sim, o GT300 aposto q vai ser uma GT200 melhoradinha, sem nada de novo.


    A NVIDIA iniciou uma dura campanha publicitária contra a nova linha de placas gráficas da AMD que foi proclamada como a mais rápida do momento. Nas palavras da NVIDIA, que reenviou como nota de imprensa uma notícia publicada no Fudzilla que nos informava que o motor GPGPU Bullet da AMD rodava nas placas GeForce. A AMD fez questão de responder várias perguntas que a NVIDIA compartilhou com os seus assinantes atacando a AMD.

    Por que a AMD está se concentrando tanto no DX11 quando a maioria dos jogos são jogos DX9 portados dos consoles?

    Hoje e durante o resto da vida das Radeon HD 5000 dezenas de jogos chegarão ao mercado suportando o DirectX11. Se a NVIDIA fosse capaz de produzir uma placa gráfica DirectX 11 hoje, ela ofereceria a imprensa uma visão muito diferente do DirectX 11. Se a NVIDIA acredita que o DirectX11 não é importante, nós desafiamos a companhia a dizer isso publicamente e que isso fique registrado.

    O adiamento da versão PC de jogos como Dirt 2 para fazer uso de novas tecnologias que serão introduzidas com o DX11 está prejudicando os jogadores?

    Os padrões proprietários prejudicam os jogadores e não os padrões da indústria como o DX11. Porque a NVIDIA prejudicou os jogadores ao incluir padrões proprietários e fechados como PhysX nos jogos?

    Quando serão vendidos os jogos com aceleração GPU mediante Havoc? Existe uma lista de jogos que suportarão Havoc?

    O PhysX já está no mercado há vários anos, mas atualmente os jogos acelerados com PhysX podem ser contados nos dedos de uma das mãos. As experiências físicas que muitos desses títulos ofereceram decepcionaram os jogadores e isso foi divulgado pela imprensa do mundo inteiro. Os jogos com aceleração física através da GPU serão aceitos no mercado quando os padrões da indústria forem abraçados.
    E concordo quando ele fala sobre o PhysX. Olhe batman, onde ta o maior titulo PHysX ate agora..., adiciona uma fumacinha q nem faz diferenca nenhuma e ainda deixa o jogo muito mais pesado...e olha q praticamente pode ser considerado um dos unicos ogos physX ate agora, desde Ghost recon.

  22. #271
    Membro
    Info Conteúdo e Citações Jogos Mensageiros
    Registro
    Mar 2003
    Mensagens
    20.932
    Verdinhas
    489

    o problema do physx por gpu é que ele so se mostra muito vantajoso por enquanto, se voce propositalmente usar mal a cpu, exemplo

    "Ok, so it's hard to see, but Task Manager is showing CPU utilization of 14%, which means the game—and Nvidia's purportedly multithreaded PhysX solver—is making use of just over one of our Core i7-965 Extreme's eight front-ends and less than one of its four cores. I'd say that in this situation, failing to make use of the CPU power available amounts to sabotaging performance on your competition's hardware."
    http://techreport.com/articles.x/17618/13

    e agora mostrando mais uma vez sua "boa vontade" parece que a nvidia esta bloqueando o physx via gpu quando detecta uma vga da ati (ati rodando 3d e nvidia physx)
    http://www.slashgear.com/nvidia-disa...alled-2558108/

    aqui um user que fazendo alguns ajustes consegue jogar o batman com physx ativo "ok" sem gpu da nvidia (logico que usando uma cpu bem forte)
    http://www.hardforum.com/showpost.ph...06&postcount=8
    entao imagina se o jogo fosse feito para ultilizar direito a cpu rodando physx...

  23. #272
    Membro
    Info Conteúdo e Citações Jogos Mensageiros
    Registro
    Jun 2002
    Mensagens
    1.870
    Verdinhas
    16

    Citação Citando DeatH Ver mensagem
    finalmente um executivo da nvidia "desmentiu" de que os yields tavam ruins, mas ele nao revelou qual era a porcentagem por wafer...
    e me parece q o GT300 nao vai ter DX11, to comecando a sacar a nvidia, vo ate fazer uma profecia:
    eles vao fazer do CUDA uma API de mesmo nivel de directX e OGL que nem a 3dFX fez ao criar o GLIDE, isso explica a falta de interesse no DX11 e outros aspectos
    mas eu acho q isso ainda vai levar uns anos e se isso se tornar verdade, eu considero esse movimento temerario
    Se a GT300 não tiver DX11, vai ser um tiro no pé, e se ela fosse um mero upgrade da GT200, pode acreditar que já estava nas ruas, seria apenas desenhar a GT200 em 40nm e adicionar mais blocos de SPs/ROPs/TMUs....

    A nVidia sabe da importância de DX11, só está chorando por não ter no momento e querendo convencer que não vale a pena comprar uma VGA por causa de DX11, visto que não tem muita coisa em DX11 hoje...

    E a nVidia não é nem louca de querer colocar CUDA no lugar de DX11... É suícidio mercadológico, suas placas vão ficar rodando em DX9 ou 10 enquanto a da concorrência DX11 (nos jogos que suportam, claro).É difícil imaginar alguma softwarehouse customizando uma engine CUDA... Pense, só PhysX já é difícil achar, suporte avançado a cuda então (em jogos)....

    Por outro lado você está parcialmente certo... Já colocaram uma aplicação de uso misto DX11 / DXCompute, aonde se usa DXCompute para auxiliar a ter uma transparência com performance e qualidade melhores... Então com certeza, ao longo dos tempos, o uso de GPGPU em jogos deve aumentar, mas através de padrões comuns, como DXCompute ou OpenCL...

  24. #273
    Membro
    Info Conteúdo e Citações Jogos Mensageiros
    Registro
    Jul 2004
    Mensagens
    7.314
    Verdinhas
    2306

    Citação Citando DeatH Ver mensagem
    hm
    isso contradiz as ultimas afirmações da nvidia, dizendo q o DX11 é menos importante q o PhysX
    e como vc mesmo disse estamos falando de rumores e boatos, assim como eu nao tenho a fonte vc tb nao
    como eu disse no meu outro post foi apenas uma previsao q eu fiz, nao tenho certeza de nada filho
    Eu tb iria falar que DX11 não é importante sendo que meu produto top atual(GTX295) é DX10.
    É meio ingênuo achar que a nvidia vai falar"Dx11 realmente é importante,PhysX é besteira,podem comprar HD5870".
    Quase certo GT300 ser DX11,o problema é no setor mid-end,com rumores de uma nova série requentada baseada no GT200 mas DX10.1?
    Isso pra min já seria o "não dar devida importância pro DX11!
    Lançar VGA top sem DX11 é suicído,erro tão grave como as cagadas que fizeram nas GF FX(inão seguiram as specs oficiais do dx9),e sinceramente,não tem nada que faça acreditar que vão ignorar o DX11.
    Isso que eles falaram nem dá pra levar em consideração,só propaganda pra vender o peixe deles...

    Bom,eu penso no meu bolso né,quero que o GT300 seja uma baita VGA,assim posso comprar HD5xxx mais barato

    Edit:A nvidia também não falou muito antes do lançamento do G80,mas criou mto hype e propaganda antes de lançar o nv30...
    Última edição por DVSV : 27-09-2009 às 16:10

  25. #274
    Membro
    Info Conteúdo e Citações Jogos Mensageiros
    Registro
    Mar 2003
    Mensagens
    20.932
    Verdinhas
    489

    é, parte das vgas da nvidia certamente vao ser dx10.1, GT210 ja esta no mercado e é dx10.1, GT220 em breve e vai ser 10.1, isso mais low end claro,

  26. #275
    Membro Avatar de Proper
    Info Conteúdo e Citações Jogos Mensageiros
    Cidade das Mangueiras
    Registro
    Sep 2004
    Mensagens
    16.619
    Verdinhas
    9141

    Citação Citando DVSV Ver mensagem
    Edit:A nvidia também não falou muito antes do lançamento do G80,mas criou mto hype e propaganda antes de lançar o nv30...
    Mas também, depois da cacetada que tomaram do R300, aprenderam a lição. A NVIDIA passou tempos difícieis naquela época (apesar de incrivelmente ainda ter vendido muito o NV3x e seus derivados (principalmente para mercados de 3º mundo como o nosso).

+ Responder Tópico Ir para o Fórum
Página 11 de 16 Primeira ... 9 10 11 12 13 ... Última

Assuntos do tópico

Compartilhar

Permissões