PDA

Ver la versión completa : ¿La computacion distribuida intensiva destroza las CPU?



Aguafiestas
18/04/2008, 23:11
Me gustaria saber la realidad sobre proyectos BOINC y similares, ya se que siempre dicen que no pasa nada (para que trabajemos para ellos gratis) pero fijo que los procesadores se quedan machacados ante miles de horas de estar procesando a lo bestia.

Desde luego tener las CPU trabajando dia y noche beneficioso no es, como minimo será neutral... Luego que el CPU solo dura dos años y "es lo normal"... xD pues yo creo que no. ¿Que pensais?

luego podriamos hablar del trote que le dan a los discos duros, que al cabo de un tiempo ya hacen más ruido que una maraca, pero estamos en la seccion procesadores xd.

Saludos.

adv_h67
18/04/2008, 23:16
Si está bien refrigerada, una CPU debería durar bastantes años a pleno rendimiento. Lo que las mata es el calor y/o el overclock.

drfernan
18/04/2008, 23:30
Me gustaria saber la realidad sobre proyectos BOINC y similares, ya se que siempre dicen que no pasa nada (para que trabajemos para ellos gratis) pero fijo que los procesadores se quedan machacados ante miles de horas de estar procesando a lo bestia.

Desde luego tener las CPU trabajando dia y noche beneficioso no es, como minimo será neutral... Luego que el CPU solo dura dos años y "es lo normal"... xD pues yo creo que no. ¿Que pensais?

luego podriamos hablar del trote que le dan a los discos duros, que al cabo de un tiempo ya hacen más ruido que una maraca, pero estamos en la seccion procesadores xd.

Saludos.

Lo de los discos duros está claro, se joden por tiempo de uso, no por otra cosa.

Y también está claro que los procesadores "viven" menos tiempo cuando ejecutan programas computación distribuida continuamente que cuando se utilizan para un uso normal.

Yo siempre he sido de usar BOINC o SETI@home, pero me petó un equipo por y no puedo evitar dudar de la misma. Luego está el tema de la electromigración, pero no me atrevo a meterme en ello.

iqpi
18/04/2008, 23:37
Yo sinceramente, no pienso para nada que los procesadores se jodan por darles un uso intensivo, de hecho se fabrican para que den el máximo durante por lo menos una década, siempre y cuando las condiciones sean las adecuadas, es decir, refrigeración, temperatura...

Si además ayudamos manualmente con undervolt, y refriegeraciones mas elaboradas, no tiene porqué haber problema, es más antes de que el micro se joda, la mayoría de los mortales ya habrá cambiado de micro y de ordenador entero varias veces incluso.

Un saludo.

SanamArcar
19/04/2008, 01:18
El mayor peligro de un micro tiene dos patas: es su dueño cuando lo cambia a los 2 años por otro..

Moiquintanillas
19/04/2008, 05:31
Como te han dicho, el problema no es la computacion distribuida, el problema es la temperatura, el oc con ese vcore que se le suele de aplicar de mas para este.

Lo tengo siempre desde las 5,30 a las 24,00 con la computacion distribuida, oc a 3200, cores al 100%, Vcore al vid del micro (1,2625v), pero tengo una buena refrigeracion. Ahora mismo que lleva 2 horitas encendido tengo 43º en el core que mas marca, con todos los ventis al minimo. Si con esta temp se me jodiera el micro.....

JRA
19/04/2008, 06:01
Tengo 3 equipos 24/7 con Seti y por ahora ningún problema. Dos de ellos llevan ya muchos años con lo mismo. Realmente creo que es mas probable que falle el disco, la fuente, o la placa (por decir algo) antes que el micro por estar todo el día con BOINC :)
Un micro sin OC y con buenas temperaturas debería durar unos cuantos años -aunque nadie te lo asegura- ya que como cualquier componente electrónico puede fallar "en cualquier momento"... pero en líneas generales es un componente duradero.

Saludos

Luisetrix
19/04/2008, 07:11
"El mayor peligro de un micro tiene dos patas"

Ésto es una verdad universal. Aún tengo yo 486 que funcionan, pero claro, no los queremos ni de pisapapeles.

pedro_vespacito
19/04/2008, 07:28
Alguien me puede explicar que es la computación distribuida intensiva???

Muchas gracias

bart0n
19/04/2008, 07:38
Alguien me puede explicar que es la computación distribuida intensiva???

Muchas gracias

http://foro.noticias3d.com/vbulletin/showthread.php?t=192297

OCEANO
19/04/2008, 07:51
El mayor problema es la Factura eléctrica que es sensiblemente mayor y eso con un equipo medio con uno potente o varios equipos sube de forma notable....

Saludos

yukinno
19/04/2008, 08:34
Yo no creo que pase nada, tengo el equipo de la firma trabajando rosseta a tope y con un buen sistema de refrigeracion no me pasa de 36º a full.
Lo que mata a los procesadores es el voltaje y la temperatura, si le metes un voltaje de 1.5 a mi micro por ejemplo seguro que te lo cargas sin la computacion distribuida, se funde el solito.

CarlosR.
19/04/2008, 14:24
Yo tuve y tengo equipos con la CPU practicamente al 100% durante 24 horas luego a lo mejor se relajan uno días y otra vez a rular. Nunca se me churruscaron y las cambio por obsoletas no por fallos.
Para que te hagas una idea supongamos que un micro va a durarte 11 años, bien, pues si lo tienes funcionando muy forzado te durará 10 años.
Yo creo que es mucho más perjudicial pasar a meses sin encender el ordenador que tenerlo rulando a tope.
Lo discos duros y piezas mecánicas ya es distinto, si estas continuamente accediendo al disco duro si que se te pueden estropear. Pero ese no es el caso con ese tipo de programas que tu planteas.

Un saludo.

MyHeLL
19/04/2008, 15:32
Yo tengo un sobremesa y un portátil, 4 meses ya durante 24/7 con la CPU al 100% y ni me entero.

Trotador
19/04/2008, 17:57
Subscribo todo lo dicho sobre lo inofensivo de la computación distribuida, intensiva o no, y el peligro de lo demás :)

Diez años casi con ello y el único micro que he quemado fue un Xp porque me equivoque al hacer la ñapa del zócalo para cambiar el multi y lo cortocircuite...

Un enlace por si os queréis animar y si os apuntais con mi nombre y número de equipo pues mejor :):-)

Un poco más en serio, este proyecto puede lograr cosas de gran ayuda.

http://folding.stanford.edu/Spanish/Main