Ciencia y empresa

La Navaja de Ockham

Gábor Bíró 24 de abril de 2025 12 min de lectura

La Navaja de Ockham, el principio resumido a menudo como "la explicación más simple suele ser la mejor", es una de las heurísticas más extendidas y prácticas del pensamiento humano.

La Singularidad de la IA

Gábor Bíró 23 de abril de 2025 8 min de lectura

El término "Singularidad" ha trascendido el discurso científico de nicho para convertirse en un motivo recurrente en la cultura popular, apareciendo de forma destacada en películas, artículos de noticias y debates públicos. A menudo representado con dramatismo, evoca imágenes de inteligencia artificial descontrolada y una existencia humana fundamentalmente alterada. Aunque a veces se sensacionaliza, el concepto subyacente merece una seria consideración, especialmente a medida que los avances en Inteligencia Artificial (IA) se aceleran.

El juego de suma cero: La competencia y la ilusión del beneficio

Gábor Bíró 19 de marzo de 2025 15 min de lectura

La teoría de juegos, el modelo matemático de la toma de decisiones estratégicas, opera con numerosos conceptos que ayudan a comprender la dinámica de las interacciones. Uno de los más importantes y mencionados con frecuencia es el juego de suma cero. Este concepto describe situaciones en las que la ganancia de un participante significa necesariamente la pérdida de otro, de modo que la "ganancia" total neta es constante e igual a cero. Los juegos de suma cero son modelos fundamentales de la competencia y el conflicto, y son relevantes en numerosos ámbitos, desde el deporte y la economía hasta la política

La trampa de la eficiencia

Gábor Bíró 5 de marzo de 2025 4 min de lectura

¿Alguna vez te has preguntado por qué la tecnología moderna, que supuestamente facilita nuestra vida y nos ahorra tiempo, en realidad no se traduce en más tiempo libre? ¿Por qué trabajamos tanto o quizás incluso más que nuestros abuelos, a pesar de estar rodeados de lavadoras, lavavajillas, ordenadores y smartphones? La respuesta reside en un fenómeno ya reconocido durante la Revolución Industrial, conocido como la Paradoja de Jevons.

Notación Polaca Inversa: Una Alternativa Elegante para Evaluar Expresiones Matemáticas

Gábor Bíró 2 de marzo de 2025 6 min de lectura

La Notación Polaca Inversa (NPI) es un método eficiente para evaluar expresiones matemáticas, que se caracteriza por colocar los operadores después de sus operandos. Este enfoque permite omitir los paréntesis, simplificando y clarificando el proceso de cálculo. Aunque al principio pueda parecer diferente, usar la NPI acelera significativamente la ejecución de operaciones, especialmente en sistemas informáticos y calculadoras programables.

Tarjetas Gráficas Nvidia Adecuadas para Ejecutar IA

Gábor Bíró 7 de febrero de 2025 5 min de lectura

Mucha gente todavía asocia las tarjetas gráficas principalmente con los videojuegos, pero las GPUs son capaces de mucho más. Debido a su arquitectura, son excelentes para la computación paralela, que es esencial para entrenar y ejecutar modelos de aprendizaje profundo. Considera esto: un LLM moderno tiene miles de millones de parámetros, y todos estos parámetros deben gestionarse simultáneamente. Este tipo de procesamiento paralelo es la verdadera fortaleza de las GPUs, mientras que las CPUs tradicionales (unidades centrales de procesamiento) se quedan atrás en este aspecto.

Velocidades de conexión SATA, SAS y M.2

Gábor Bíró 31 de enero de 2025 3 min de lectura

A lo largo de la evolución de los dispositivos de almacenamiento, han surgido numerosas tecnologías de conexión, aportando cambios revolucionarios tanto en velocidad como en eficiencia. Las conexiones SATA, SAS y M.2 se encuentran entre las soluciones más comunes hoy en día, pero ¿para qué se utilizan y en qué se diferencian?

Los Formatos Numéricos Más Comunes para LLMs

Gábor Bíró 22 de enero de 2025 4 min de lectura

El funcionamiento eficiente de los Modelos de Lenguaje Grandes (LLM) depende en gran medida del almacenamiento y procesamiento adecuado de sus pesos. El formato numérico elegido impacta directamente en los requisitos de memoria, la velocidad computacional y la precisión del modelo. Con el tiempo, FP32 ha sido gradualmente complementado o reemplazado por FP16 y BF16 para el entrenamiento, mientras que INT8 y formatos cuantificados de bits incluso inferiores son cada vez más comunes para optimizar la inferencia.

Comparativa del Rendimiento de GPUs para Modelos de Lenguaje Grandes

Gábor Bíró 11 de enero de 2025 2 min de lectura

El rápido desarrollo de los Modelos de Lenguaje Grandes (LLM) plantea nuevos desafíos en el campo de la computación. Una pregunta crucial para mí es cómo se desempeñan las GPU al ejecutar estos modelos. En esta publicación, mi objetivo es examinar el rendimiento de varias GPU a través de los conceptos de TFLOPS (billones de operaciones de punto flotante por segundo) y TOPS (billones de operaciones por segundo). Presentaré las capacidades de modelos individuales utilizando una tabla clara, complementada con breves explicaciones.

¿Por qué son tan caras las tarjetas gráficas?

Gábor Bíró 6 de enero de 2025 4 min de lectura

Los precios de las tarjetas gráficas se han disparado durante años, y esto se debe a razones complejas e interconectadas. A menudo, una tarjeta gráfica de gama alta (GPU) por sí sola puede costar más que todos los demás componentes de un ordenador combinados, lo que destaca la magnitud que ha alcanzado su precio.

Velocidades de conexión USB, PCIe y AGP

Gábor Bíró 20 de diciembre de 2024 3 min de lectura

La velocidad de transferencia de datos desempeña un papel crucial en el rendimiento de los ordenadores modernos. Las interfaces USB y PCIe han evolucionado a lo largo de décadas para proporcionar una comunicación cada vez más rápida y eficiente entre dispositivos. En este artículo, revisaré las velocidades de estas conexiones y su evolución a lo largo de las generaciones.

Velocidades y Ancho de Banda de las Memorias DDR, GDDR y HBM

Gábor Bíró 11 de diciembre de 2024 6 min de lectura

El rendimiento de los ordenadores modernos se ve influenciado significativamente por la velocidad y el tipo de memoria utilizada. Las memorias DDR, GDDR y HBM están optimizadas para diferentes propósitos, ya sea la memoria principal del sistema para las CPU, la memoria para tarjetas gráficas o tareas que requieren computaciones de gran ancho de banda. En esta publicación, comparo las velocidades y los parámetros clave de estos tipos de memoria.

Comprensión de las velocidades estándar del hardware informático

Gábor Bíró 29 de noviembre de 2024 4 min de lectura

Existen muchos malentendidos en torno a las velocidades de los diversos estándares de transferencia y almacenamiento de datos informáticos (p. ej., USB, SATA, DDR, PCIe, Ethernet, etc.). Por eso he creado varias descripciones resumidas y tablas que cubren los principales estándares y sus velocidades.

Explicación de las velocidades de red Wi-Fi y Ethernet

Gábor Bíró 19 de noviembre de 2024 5 min de lectura

En el mundo digital, la velocidad de red es un factor fundamental que moldea nuestra vida diaria, ya sea en la comunicación en línea, los juegos, las videoconferencias o la simple navegación. La evolución de las redes cableadas (Ethernet) e inalámbricas (Wi-Fi) ha avanzado mucho en las últimas décadas. Mientras que velocidades de unos pocos megabits por segundo se consideraban rápidas en los años 90, hoy en día encontramos velocidades de gigabit incluso en nuestros hogares.

Tamaño de los Modelos LLM, Requisitos de Memoria y Cuantificación

Gábor Bíró 12 de noviembre de 2024 3 min de lectura

Los Modelos de Lenguaje Grandes (LLM), como GPT-3, LLaMA o PaLM, son redes neuronales de gran tamaño. Este tamaño se mide típicamente por el número de parámetros (p. ej., 7b, 14b, 72b, que significan 7 mil millones, 14 mil millones, 72 mil millones de parámetros). Un parámetro es básicamente un valor de peso o sesgo dentro de la red neuronal. Estos parámetros se aprenden durante el entrenamiento y, en conjunto, representan el "conocimiento" del modelo, determinando cómo procesa la información y genera resultados. Los LLM actuales tienen miles de millones, y a veces incluso cientos de miles de millones, de parámetros.

OPI de Cerebras: Competidor de Nvidia sale a bolsa

Gábor Bíró 15 de octubre de 2024 4 min de lectura

En los últimos años, la revolución de la IA ha introducido nuevos actores y soluciones tecnológicas fascinantes en la industria de los semiconductores. Entre los más prometedores se encuentra Cerebras Systems, una startup con sede en California que recientemente anunció su intención de salir a bolsa.

Nanorrobots para el tratamiento de aneurismas cerebrales

Gábor Bíró 11 de octubre de 2024 3 min de lectura

El desarrollo de nanorrobots magnéticos podría abrir nuevos horizontes en el tratamiento de aneurismas cerebrales. Estos dispositivos microscópicos de precisión están diseñados para administrar la medicación necesaria directamente en el lugar del problema, minimizando potencialmente las complicaciones y los riesgos inherentes a los procedimientos quirúrgicos tradicionales. Este artículo explora cómo funcionan estos nanorrobots, sus ventajas sobre los métodos convencionales y las posibilidades futuras dentro de este campo de vanguardia de la nanomedicina.

El Supuesto Interés de Qualcomm en Intel: Un Potencial Remezón en la Industria de Semiconductores

Gábor Bíró 11 de octubre de 2024 4 min de lectura

Según informes de The Wall Street Journal que surgieron a principios de este año, Qualcomm exploró recientemente una posible propuesta de adquisición de Intel, una noticia que conmocionó a la industria de los semiconductores y provocó fluctuaciones significativas en los precios de las acciones de ambas compañías. Este movimiento inesperado, aunque altamente especulativo, podría remodelar fundamentalmente el sector tecnológico y establecer un nuevo equilibrio de poder en el mundo de la fabricación de chips.

La visión de Larry Ellison sobre el futuro de la IA de Oracle

Gábor Bíró 11 de octubre de 2024 3 min de lectura

Larry Ellison, cofundador, presidente y director de tecnología (CTO) de Oracle, detalló recientemente los ambiciosos planes de inteligencia artificial para la empresa. Estos incluyen inversiones potencialmente masivas en capacidades de IA de vanguardia y la exploración de la construcción de vastos centros de datos alimentados por energía nuclear, lo que indica la intención de Oracle de competir agresivamente en el panorama de la IA en rápida evolución.

OpenAI: Valoración récord de 157 mil millones de dólares y financiación de 6,6 mil millones en medio de crecientes desafíos

Gábor Bíró 11 de octubre de 2024 5 min de lectura

OpenAI, la compañía líder en investigación y desarrollo de inteligencia artificial (IA), vuelve a estar en el centro de atención. En una ronda de financiación récord cerrada en octubre de 2024, la empresa consiguió 6.600 millones de dólares a través de notas convertibles, disparando su valoración hasta la impresionante cifra de 157.000 millones de dólares. Esta operación no solo es una de las mayores captaciones de capital en la historia de Silicon Valley, sino también una señal clara de la confianza inquebrantable de los inversores en el futuro de la IA y el liderazgo de OpenAI. No obstante, esto sucede mientras la empresa se enfrenta a enormes costes operativos, una competencia feroz y transformaciones internas importantes.