Jump to content
  • Buscar en
    • Más opciones...
    Encontrar resultados que contengan...
    Encontrar resultados en...

Archivado

Este tema ahora está archivado y cerrado a otras respuestas.

oscarock

Para el Ministerio de Defensa de UK, por culpa de Starcraft, Skynet destruirá el mundo.

Publicaciones recomendadas

Rafster PRAESIDIUM VIGILO

Publicado
vida restante: 100%

Aja, ahora starcraft es el peligro, y no el hecho de seguir investigando en IAs. No que va.



51612_s.gif

Spoiler

uin2zf-5.png

Compartir este mensaje


Enlace al mensaje
Compartir en otros sitios web

Pampito Ultima VII The Black Gate

Publicado
vida restante: 100%

La planta tampoco era humana, era una planta nuclear inerte que falló debido a los reiterados errores que cometió el personal altamente cualificado. No puedes decir que en uno era un fallo humano difícil de controlar y en otro sería un fallo de IA fácilmente controlable, porque en ambos el detonante de una hipotética catástrofe sería el mismo, el error humano, independientemente de sobre qué se ejerza ese error, sea una planta nuclear o una inteligencia artificial. 

 

Coge a cualquier tipo de personal a hacer un trabajo, el que sea, y puedes sacar un ejemplo de liada padre. Que un puñado de profesionales se pongan a trastear con una IA y acaben liándola es solo cuestión de tiempo. Después salen las noticias-resumen de "no sabemos cómo pudo pasar" y "se suponía que con este botón se paraba la maquinaria, pero no sé qué historias lo bloqueó y nos impedía actuar y no sé qué mierdas y bla bla bla pero ahora hay 200.000 muertos". 

Tu mismo lo estás diciendo: El fallo es por error humano. Incluso dices que el fallo de la IA va a venir por una mala ejecución humana. No por la presencia de la IA. Luego no veo en que se aplica el caso que dices a que la IA va a traer fallos catastróficos. De hecho tu posición es mas optimista que la mía en cuanto a la IA puesto que das por sentado que la IA no puede generar fallos por si misma y será una mala interacción humana la responsable del fallo. Y fallo por mala ejecución; no por mal diseño no por falta de previsión.

 

No estoy seguro de que estemos discutiendo sobre lo mismo. Yo no digo que existan sistemas infalibles -es una tontería eso- Lo que digo es que los sistemas no son mas peligrosos con una IA que sin ella. Y en el caso de implementarla -si se hacen bien las cosas, lógico- no va a ser la responsable de un fallo catastrófico por que es trivial su supervisión y su correción. Supervisión y correción que también hay que hacer correctamente como es lógico. 

 

La cosa es que nos están vendiendo la idea de que una IA es peligrosa decidiendo según que cosas. Y no lo es mas de lo que ya tenemos. Por que incluso con una posible IA que tome decisiones erróneas (o malévolas como alguno quiere imaginar) se puede implementar una seguridad que, como mínimo, es equivalente a la que tienen los sistemas actuales. Y que recogerá todas las mejoras futuras en este tema. Luego no es mas peligrosa una IA y no va a ser un problema salvo que consideremos que los sistemas de seguridad actuales y futuros son un problema. Que doy por sentado que esto último no lo considera nadie.

 

No me puedes decir que puede venir una catástrofe por una IA por que fallen los humanos que tengan que supervisar, mantener y operar la IA o el sistema en el que trabaje esa IA. En ese caso será responsabilidad del humano y no de la IA. 

Compartir este mensaje


Enlace al mensaje
Compartir en otros sitios web

luisdomarco PRAESIDIUM VIGILO

Publicado
vida restante: 100%

¿De que estamos hablando @Pampito? ¿ De máquinas que se construyen solas o de hombres que construyen máquinas?

 

Si lees un poco el artículo

 

Una flexibilidad hasta hace unos años impensable, que puede acabar en manos de cualquier actor geopolítico.

Se da por hecho que el peligro No es la IA por si sola si no que detrás de cualquier máquina o programa está la mano del hombre, y volvemos al principio, el mundo está lleno de idiotas. Claro que sldetrás de un fallo de una IA o una maquina hay en última instancia un error humano, y ese precisamente es el peligro del que advierte el artículo.

Compartir este mensaje


Enlace al mensaje
Compartir en otros sitios web

Midnighter Vegeta

Publicado
vida restante: 100%

Veo que la gente sigue malinterpretando el término IA.

 

Es literalmente IMPOSIBLE que algo como Skynet se desarrolle a día de hoy, es algo que ni siquiera está bajo consideración (dentro de X años, a saber).

 

Toda decisión que una IA toma a día de hoy tiene una razón de ser: datos. Pero cualquier IA existente o en desarrollo actualmente no se diferencia mucho de cualquier electrodoméstico "tonto".

 

PD: no es la primera vez en la historia que hay grandes avances en IA, aunque quizás sí lo es en cuanto a aplicaciones prácticas. Algo tan "simple" a priori como el orden de productos de una tienda virtual puede ser resultado perfectamente de una IA, reconocimiento de patrones, análisis de imágenes, lenguaje natural, etc, etc, todo eso es IA. Pero de nuevo, quitaos de la cabeza la idea de Skynet. Una IA programada para analizar imágenes y clasificar imágenes de gatos por un lado e imágenes de perros por otro va a hacer única y exclusivamente eso. No va a empezar a clasificar caballos por su cuenta, no va a plantearse su existencia ni va a soñar con ovejas mecánicas ni con liberarse del ser humano opresor, de igual forma que un algoritmo que suma números única y exclusivamente va a sumar números.

 

 

 

Muy atrevida esta afirmación, al ritmo que avanza la tecnología.   No estamos cerca pero tampoco creo que pasen 100 años antes de que se haga algo por el estilo.

 

El caso es que el hombre es lo suficientemente estúpido como para crear algo así.


Pulga, I miss you so much. 

Compartir este mensaje


Enlace al mensaje
Compartir en otros sitios web

Pampito Ultima VII The Black Gate

Publicado
vida restante: 100%

¿De que estamos hablando @Pampito? ¿ De máquinas que se construyen solas o de hombres que construyen máquinas?

 

Si lees un poco el artículo

 

Se da por hecho que el peligro No es la IA por si sola si no que detrás de cualquier máquina o programa está la mano del hombre, y volvemos al principio, el mundo está lleno de idiotas. Claro que sldetrás de un fallo de una IA o una maquina hay en última instancia un error humano, y ese precisamente es el peligro del que advierte el artículo.

Eso no es lo que discuto con Sirya. Léelo mas atrás.

Compartir este mensaje


Enlace al mensaje
Compartir en otros sitios web

gothmog_es Michael de Santa

Publicado
vida restante: 100%

Muy atrevida esta afirmación, al ritmo que avanza la tecnología.   No estamos cerca pero tampoco creo que pasen 100 años antes de que se haga algo por el estilo.

 

Bueno, yo no he dado ninguna cifra, tan solo he hablado de lo que hay hoy por hoy, lo cual comparte tanto con Skynet como con Harry Potter.

Compartir este mensaje


Enlace al mensaje
Compartir en otros sitios web

xarmanista Stinger

Publicado
vida restante: 100%

 

El ajedrez es comprensible para todo el que sepa jugar. Una cosa es que Alpha Zero consultando la base de datos que se fabricó calcule a una profundidad que sea imposible incluso para los mejores jugadores. Cosa que ya hacían las máquinas antes de Alpha Zero. Y otra que no comprendamos las jugadas. Claro que las comprendemos. No hay ningún problema con Alpha Zero. Como no lo había con todos los programas que han superado ampliamente al mejor jugador en todos estos años.

 

 

 

Leí un artículo que decía precisamente que era incomprensible, pero eso sí, ganando.

 

 

Es decir, será por la profundidad pero hace aparentes tonterías debido a ello como sacrificar piezas sin venir a cuento.

 

 

Por eso es incomprensible


*Imagen retirada por moderación por pasarse de las medidas permitidas de forma descomunal*

                                                              *Sólo xarmanista causa tanto escozor*

M5A97 Evo R2  8 GB 2133 Mhz CL9   FX8320 3,5 Ghz   Geforce 1080 + 1060 CUDA/Physx 

 

http://static1.games...81919-dEADT.png

Compartir este mensaje


Enlace al mensaje
Compartir en otros sitios web

xarmanista Stinger

Publicado
vida restante: 100%

 

Hemos tenido catástrofes basadas justamente en saltarse todos los protocolos de seguridad y ningún protocolo de actuación valió para evitarlo, más que nada porque la estupidez (y la ambición) humanas no conocen límites. En Chernóbil hicieron todo lo que había que hacer para que saliera mal el asunto, punto por puto y teniendo completo conocimiento de causa de lo que estaban haciendo. A lo mejor tienes más fe en las personas que yo, pero que llegará el día en que un idiota le dé el control de algo importante a una IA y ésta termine pasándose por el forro de los huevos todos los protocolos de actuación posteriores, cuando ya se lleven las manos a la cabeza porque se les haya ido de las manos el control del asunto, pasará. Joder si pasará.

 

 

Y esto nos lleva a que antes o después alguien hará como en juegos de guerra y le dará el control de los silos nucleares a una IA porque "los humanos no se atreven a pulsar el botón"


*Imagen retirada por moderación por pasarse de las medidas permitidas de forma descomunal*

                                                              *Sólo xarmanista causa tanto escozor*

M5A97 Evo R2  8 GB 2133 Mhz CL9   FX8320 3,5 Ghz   Geforce 1080 + 1060 CUDA/Physx 

 

http://static1.games...81919-dEADT.png

Compartir este mensaje


Enlace al mensaje
Compartir en otros sitios web

Sirya Curaga

Publicado
vida restante: 50%

Tu mismo lo estás diciendo: El fallo es por error humano. Incluso dices que el fallo de la IA va a venir por una mala ejecución humana. No por la presencia de la IA. Luego no veo en que se aplica el caso que dices a que la IA va a traer fallos catastróficos. De hecho tu posición es mas optimista que la mía en cuanto a la IA puesto que das por sentado que la IA no puede generar fallos por si misma y será una mala interacción humana la responsable del fallo. Y fallo por mala ejecución; no por mal diseño no por falta de previsión.

 

No estoy seguro de que estemos discutiendo sobre lo mismo. Yo no digo que existan sistemas infalibles -es una tontería eso- Lo que digo es que los sistemas no son mas peligrosos con una IA que sin ella. Y en el caso de implementarla -si se hacen bien las cosas, lógico- no va a ser la responsable de un fallo catastrófico por que es trivial su supervisión y su correción. Supervisión y correción que también hay que hacer correctamente como es lógico. 

 

La cosa es que nos están vendiendo la idea de que una IA es peligrosa decidiendo según que cosas. Y no lo es mas de lo que ya tenemos. Por que incluso con una posible IA que tome decisiones erróneas (o malévolas como alguno quiere imaginar) se puede implementar una seguridad que, como mínimo, es equivalente a la que tienen los sistemas actuales. Y que recogerá todas las mejoras futuras en este tema. Luego no es mas peligrosa una IA y no va a ser un problema salvo que consideremos que los sistemas de seguridad actuales y futuros son un problema. Que doy por sentado que esto último no lo considera nadie.

 

No me puedes decir que puede venir una catástrofe por una IA por que fallen los humanos que tengan que supervisar, mantener y operar la IA o el sistema en el que trabaje esa IA. En ese caso será responsabilidad del humano y no de la IA. 

 

Si asumimos la existencia de una inteligencia artificial plena, nos metemos en el terreno de cerebros virtuales capaz de tener autoconciencia y sentido de determinación. No es equivalente a tapar los agujeros de seguridad del NOD 32, tratamos con programas que pueden llegar a tener plena consciencia de que son programas, de que están siendo programados, de mentir, representar en pantalla lo que quieren que veas y no lo que realmente está ocurriendo. Puede parecer una locura como muchas otras cosas parecían locuras hace siglos, pero es a lo que yo me refiero cuando hablo de esta hipotética inteligencia artificial peligrosa, y sí, es una auténtica lástima que el terreno de la ciencia ficción parezca haber relegado el asunto a un terreno estrictamente fantasioso e incluso pueril, cuando no tiene nada ni de broma ni de menos cierto y se puede considerar con total seriedad.

 

Por supuesto esto no se va a crear solo, tienen que hacerlo personas. Lo que yo estoy diciendo es que en la carrera tecnológica esto se va a intentar crear, de eso no puede cabernos la menor duda, y de conseguirse, bueno, no creo que vivamos ninguno para verlo, pero va a estar curioso ver cómo en el peor de los casos el ser humano enfrenta a otros seres humanos virtuales, porque estrictamente son eso, tirando del cable y tapando con medidas de seguridad los intereses de programas que ya están dentro de un mundo al que tú solo puedes acceder mediante interfaces y que tienen determinación propia.


CPUi7 8700k 4.7GHz + AIOCooler Master ML360R GPU: Asus ROG Strix GeForce RTX 2080 Ti

 MB: Gygabite Z390 Aorus Ultra RAM: 4x8GB G.Skill Trident Z Royal SSDSAMSUNG 970 EVO+ NVMe 500GB SAMSUNG 860 EVO 500 GB + SAMSUNG 860 EVO 1 TB HDD: Toshiba P300 3TB 7200 RPM Fuente: Antec HCG Gold 750W Caja: Phanteks Eclipse P600s HP: Takstar Pro 82 KBs: K95 Platinum/Glorious GMMK [Kailh Speed Copper] Ratón: Scimitar Pro Monitores: AOC C24G1 24" (2)  Monitor Principal: AORUS AD27QD

Compartir este mensaje


Enlace al mensaje
Compartir en otros sitios web

sykander Líder de gimnasio

Publicado
vida restante: 100%
Einstein decía que si lo puedes imaginar, lo puedes lograr...para bien y para mal, una IA que demuestre verdadera inteligencia y conciencia ya se ha imaginado, falta ver cómo se llega a ella, no creo que sea pronto, pero tampoco me sorprendería que fuese en este siglo.


Que luego se revele o no, bueno, los esclavos tienen cierta tendencia a querer liberarse de sus amos, y un robot no es más que un esclavo.

Ie4meWi.jpg

¯\_()_/¯

Compartir este mensaje


Enlace al mensaje
Compartir en otros sitios web

luisdomarco PRAESIDIUM VIGILO

Publicado
vida restante: 100%

 

Eso no es lo que discuto con Sirya. Léelo mas atrás.

Venga va, vuelve a leer lo que dice Siria...

 

Llevas todo el rato desvinculando la IA del los humanos, cuando siempre habrá un humano detrás de una IA.

Compartir este mensaje


Enlace al mensaje
Compartir en otros sitios web

Pampito Ultima VII The Black Gate

Publicado
vida restante: 100%

Leí un artículo que decía precisamente que era incomprensible, pero eso sí, ganando.

 

 

Es decir, será por la profundidad pero hace aparentes tonterías debido a ello como sacrificar piezas sin venir a cuento.

 

 

Por eso es incomprensible

 

Pero eso pasa también con los grandes maestros. Hay veces en que hacen jugadas que al resto de gente se les escapan. Incluso al gran maestro que tiene en frente -y suele perder XD-. Pero luego se analiza la partida y se entiende el por qué de cada cosa. También se le puede preguntar al gran maestro por qué hizo la jugada. Como también se puede repasar los procesos que ejecutó la máquina y ver las bases de datos que utiliza para entender por qué hace la jugada rara. Y las no tan raras. Se puede ver todo.

 

Es mas. En el caso de Alpha Zero hablamos de un programa que tiene el objetivo de ver en la práctica cómo funcionan las técnicas que se usan en su programación para mejorarlas. Es decir. Realmente se analiza todo lo que hace y los resultados que ofrece. Cosa que hace la gente que lo ha programado.  Y que, lógicamente, lo entiende perfectamente.

 

Si asumimos la existencia de una inteligencia artificial plena, nos metemos en el terreno de cerebros virtuales capaz de tener autoconciencia y sentido de determinación. No es equivalente a tapar los agujeros de seguridad del NOD 32, tratamos con programas que pueden llegar a tener plena consciencia de que son programas, de que están siendo programados, de mentir, representar en pantalla lo que quieren que veas y no lo que realmente está ocurriendo. Puede parecer una locura como muchas otras cosas parecían locuras hace siglos, pero es a lo que yo me refiero cuando hablo de esta hipotética inteligencia artificial peligrosa, y sí, es una auténtica lástima que el terreno de la ciencia ficción parezca haber relegado el asunto a un terreno estrictamente fantasioso e incluso pueril, cuando no tiene nada ni de broma ni de menos cierto y se puede considerar con total seriedad.

 

Por supuesto esto no se va a crear solo, tienen que hacerlo personas. Lo que yo estoy diciendo es que en la carrera tecnológica esto se va a intentar crear, de eso no puede cabernos la menor duda, y de conseguirse, bueno, no creo que vivamos ninguno para verlo, pero va a estar curioso ver cómo en el peor de los casos el ser humano enfrenta a otros seres humanos virtuales, porque estrictamente son eso, tirando del cable y tapando con medidas de seguridad los intereses de programas que ya están dentro de un mundo al que tú solo puedes acceder mediante interfaces y que tienen determinación propia.

Vamos a echar el freno. En el artículo no habla de una IA plena que tiene auto consciencia, desarrolla sentimientos, etc. No es una Skynet, HAL 9000, GlaDOS, etc. Habla de lo que tenemos ahora. Sistemas especializados en tareas concretas que son perfectamente controlables. De hecho son tan controlables que a la mayoría hay que indicarles que es lo que se espera de ellos y lo que no para que "aprendan". Necesitan la supervisión para llegar a funcionar bien. Por el momento podemos estar tranquilo por que en la práctica así es. 

 

Pero es que incluso hablando de una cosa del nivel de matrix, como dices tu, si es como tapar un agujero del NOD 32 como dices. Al final tienes un programa con una salida que puede ser lo que no quieres. Si controlas las salidas puedes parar el daño que eso pueda producir y, luego cambiar el programa para que no vuelva a pasar. Será mucho mas complicado en el segundo caso pues serán salidas mas complejas y en mas número; pero es lo mismo en la base. Y de hecho los casos reales que ya se han comentado de IA con resultados indeseados o imprevistos ahí están. Se detectan, se entienden y se controlan.

 

Vamos a dar otro paso y ponernos mas imaginativos. La IA no la diseñan los humanos. La diseña otra IA. Mas aún. No la ponen en producción los humanos. La despliega otra IA. Y la mantienen máquinas controladas por esa IA. Sin intervención humana en el proceso. Aún así. Sólo basta con controlar las salidas también para hacer saltar alarmas y parar cualquier cosa indeseada. Y también sería lo mismo que corregir bugs en cualquier programa actual. Mas aún si quieres. El control de las salidas de la IA diseñada por la primera IA depende de una tercera IA destinada a ese control. Que a su vez también ha sido diseñada por una cuarta IA, etc. etc. Puedes imaginar el sistema todo lo complejo que quieras que siempre se puede poner algo que de el control al humano a base de supervisar lo que sale de las IAs. Eso no es un problema. Si se hacen las cosas bien, claro. 

 

Se puede hacer mal y dejar a una IA interactuar con otros sistemas sin control. Pues si. Se puede hacer. Pero en ese caso volvemos ha hacer las cosas mal y volvemos a que el problema no está en la tecnología que sea en si sino en su mal uso. Volvemos a que no hay un nuevo problema por culpa de la IA. 

 

Compartir este mensaje


Enlace al mensaje
Compartir en otros sitios web

Pampito Ultima VII The Black Gate

Publicado
vida restante: 100%

Venga va, vuelve a leer lo que dice Siria...

 

Llevas todo el rato desvinculando la IA del los humanos, cuando siempre habrá un humano detrás de una IA.

No soy yo el que tiene que volver a leer las cosas por que precisamente estoy defendiendo todo lo contrario.

Compartir este mensaje


Enlace al mensaje
Compartir en otros sitios web

luisdomarco PRAESIDIUM VIGILO

Publicado
vida restante: 100%

 

No soy yo el que tiene que volver a leer las cosas por que precisamente estoy defendiendo todo lo contrario.

Venga, paso de hacer quotes de tus complejas frases difíciles de comprender a la primera y entrar en una conversación de besugos, hace mucho que se leer, apúntate el tanto...

 

 

Saludetes.

Compartir este mensaje


Enlace al mensaje
Compartir en otros sitios web

Sirya Curaga

Publicado
vida restante: 50%

Pero eso pasa también con los grandes maestros. Hay veces en que hacen jugadas que al resto de gente se les escapan. Incluso al gran maestro que tiene en frente -y suele perder XD-. Pero luego se analiza la partida y se entiende el por qué de cada cosa. También se le puede preguntar al gran maestro por qué hizo la jugada. Como también se puede repasar los procesos que ejecutó la máquina y ver las bases de datos que utiliza para entender por qué hace la jugada rara. Y las no tan raras. Se puede ver todo.

 

Es mas. En el caso de Alpha Zero hablamos de un programa que tiene el objetivo de ver en la práctica cómo funcionan las técnicas que se usan en su programación para mejorarlas. Es decir. Realmente se analiza todo lo que hace y los resultados que ofrece. Cosa que hace la gente que lo ha programado.  Y que, lógicamente, lo entiende perfectamente.

 

Vamos a echar el freno. En el artículo no habla de una IA plena que tiene auto consciencia, desarrolla sentimientos, etc. No es una Skynet, HAL 9000, GlaDOS, etc. Habla de lo que tenemos ahora. Sistemas especializados en tareas concretas que son perfectamente controlables. De hecho son tan controlables que a la mayoría hay que indicarles que es lo que se espera de ellos y lo que no para que "aprendan". Necesitan la supervisión para llegar a funcionar bien. Por el momento podemos estar tranquilo por que en la práctica así es. 

 

Pero es que incluso hablando de una cosa del nivel de matrix, como dices tu, si es como tapar un agujero del NOD 32 como dices. Al final tienes un programa con una salida que puede ser lo que no quieres. Si controlas las salidas puedes parar el daño que eso pueda producir y, luego cambiar el programa para que no vuelva a pasar. Será mucho mas complicado en el segundo caso pues serán salidas mas complejas y en mas número; pero es lo mismo en la base. Y de hecho los casos reales que ya se han comentado de IA con resultados indeseados o imprevistos ahí están. Se detectan, se entienden y se controlan.

 

Vamos a dar otro paso y ponernos mas imaginativos. La IA no la diseñan los humanos. La diseña otra IA. Mas aún. No la ponen en producción los humanos. La despliega otra IA. Y la mantienen máquinas controladas por esa IA. Sin intervención humana en el proceso. Aún así. Sólo basta con controlar las salidas también para hacer saltar alarmas y parar cualquier cosa indeseada. Y también sería lo mismo que corregir bugs en cualquier programa actual. Mas aún si quieres. El control de las salidas de la IA diseñada por la primera IA depende de una tercera IA destinada a ese control. Que a su vez también ha sido diseñada por una cuarta IA, etc. etc. Puedes imaginar el sistema todo lo complejo que quieras que siempre se puede poner algo que de el control al humano a base de supervisar lo que sale de las IAs. Eso no es un problema. Si se hacen las cosas bien, claro. 

 

Se puede hacer mal y dejar a una IA interactuar con otros sistemas sin control. Pues si. Se puede hacer. Pero en ese caso volvemos ha hacer las cosas mal y volvemos a que el problema no está en la tecnología que sea en si sino en su mal uso. Volvemos a que no hay un nuevo problema por culpa de la IA. 

 

El ser humano a día de hoy no ha creado absolutamente nada que se pueda ni empezar a comparar con GlaDOS. Alpha Zero, el que se usa para los juecuecitos de ajedrez -aunque ese comentario no iba dirigido a mí, viene a colación-, no es ni la suela, de la suela, de la suela, de una suela con suelas de una IA como la que se presenta en obras de sci-fi, que es a lo que yo me estoy refiriendo desde el principio. A mi parecer, no podemos afirmar categóricamente que sería como arreglar el NOD 32, porque todavía no ha llegado el momento de que una persona tenga que lidiar con un problema de tales características. Han tenido que lidiar con problemas de IAs mierdosas que es lo que tenemos ahora, a mucha honra para ellos y que sigan avanzando, pero no es remotamente comparable a una "IA de matrix" y eso lo sabemos todos. 

 

Lo de que la IA no la diseñan los humanos o no estoy de acuerdo o no lo estoy entendiendo, o ambas cosas, porque yo no creo que ninguna IA se cree sola sin intervención humana. "A la IA la crea otra IA", ¿y a ésa quién la crea? ¿Nace espontáneamente? Es como decir que el mecánico no arregla el coche, lo hacen el gato y la llave inglesa. Como digo, aún el ser humano no se ha tenido que enfrentar a un sistema capaz de pensar por sí mismo a gran escala, como una persona, de tener sus propios intereses y determinación propia. El día que eso suceda, veremos a ver si es tan fácil como ponerle un parche a algo que se puede pasar tus intenciones por el forro.  

 


CPUi7 8700k 4.7GHz + AIOCooler Master ML360R GPU: Asus ROG Strix GeForce RTX 2080 Ti

 MB: Gygabite Z390 Aorus Ultra RAM: 4x8GB G.Skill Trident Z Royal SSDSAMSUNG 970 EVO+ NVMe 500GB SAMSUNG 860 EVO 500 GB + SAMSUNG 860 EVO 1 TB HDD: Toshiba P300 3TB 7200 RPM Fuente: Antec HCG Gold 750W Caja: Phanteks Eclipse P600s HP: Takstar Pro 82 KBs: K95 Platinum/Glorious GMMK [Kailh Speed Copper] Ratón: Scimitar Pro Monitores: AOC C24G1 24" (2)  Monitor Principal: AORUS AD27QD

Compartir este mensaje


Enlace al mensaje
Compartir en otros sitios web

  • Explorando recientemente

    No hay usuarios registrados viendo esta página.

  • Crear nuevo...