
Muy pocas piezas de software han tenido tanto impacto en la informática personal como la BIOS del IBM PC. Aquellas rutinas grabadas en un chip de solo 8 KB no solo permitían que la máquina arrancase, sino que se convirtieron en el cerrojo con el que IBM intentó blindar su recién estrenada arquitectura. Lo que IBM no imaginaba es que esa misma BIOS sería el origen de una de las mayores revoluciones industriales del sector: el boom de los clones compatibles.
La historia de cómo la BIOS pasó de ser el “as en la manga” de IBM a un estándar clonable mezcla ingeniería brillante, juicios por copyright, estrategias legales dignas de novela y un puñado de empresas que se atrevieron a desafiar al gigante azul. En paralelo, Microsoft supo leer el momento mejor que nadie y aprovechó el nuevo ecosistema de compatibles para convertir MS-DOS y, después, Windows, en la base del PC moderno.
De los primeros microordenadores al IBM PC: contexto de una revolución
Para entender por qué el IBM PC fue tan decisivo, hay que mirar un poco hacia atrás. Desde finales de los 60 y durante toda la década de los 70, la informática personal iba tomando forma a golpe de experimentos y pequeños hitos:
- Máquinas experimentales como el ENIAC, gigantescos equipos de investigación, solo accesibles a instituciones y con operadores muy especializados.
- La famosa demostración de Douglas Engelbart en 1968, la “Mother of All Demos”, que anticipó conceptos clave de la informática personal, pero aún demasiado caros para un uso masivo.
- Los sistemas de tiempo compartido que permitían a usuarios académicos trabajar de forma interactiva, aunque todavía sobre equipos caros y centralizados.
- El salto clave: la llegada del microprocesador y de los circuitos integrados baratos, con hitos como el Intel 4004 en 1971, que hicieron viable la microcomputadora.
A partir de mediados de los 70, el concepto de ordenador personal se materializa de verdad. El Altair 8800 en 1974, vendido como kit en Popular Electronics, es considerado el primer PC comercialmente exitoso. Alrededor del Altair nace toda una industria: clones como el IMSAI 8080, el bus S-100 como estándar de expansión, y empresas nuevas como Microsoft, que empieza precisamente vendiendo un intérprete BASIC.
En 1977 llega la “trinidad” de los micros domésticos: Apple II, Commodore PET y TRS-80. Ya son máquinas ensambladas, enchufar y usar, orientadas al usuario de casa y a pequeñas empresas. Poco después se sumarían otros equipos de 8 bits como los Atari, el VIC-20, el TI-99/4A, etc. El mercado explota: procesadores de texto como WordStar, hojas de cálculo como VisiCalc y videojuegos como Adventureland o Microchess convierten al microordenador en algo mucho más que un hobby.
En ese escenario, IBM todavía miraba el mercado del PC desde la barrera. Su negocio eran los mainframes y minicomputadores corporativos. Había experimentado con el IBM 5100 en 1975, un microordenador de escritorio carísimo (hasta 20.000 dólares) pensado para ingenieros y científicos, no para oficinas ni hogares. El verdadero golpe sobre la mesa llegaría recién en 1981.

El IBM PC 5150: arquitectura abierta, BIOS propietaria
Presionada por el éxito del Apple II y el crecimiento imparable del mercado doméstico, IBM decide lanzar su propio ordenador personal. Para moverse rápido, rompe con muchas de sus normas internas: en lugar de tardar años diseñando todo a medida, crea el Project Chess en Boca Ratón (Florida), un pequeño equipo (“the Dirty Dozen”) dirigido inicialmente por William C. Lowe y luego por Don Estridge, con libertad para usar piezas estándar del mercado.
El resultado fue el IBM Personal Computer modelo 5150, presentado el 12 de agosto de 1981. La filosofía era muy distinta de otros productos de IBM:
- Uso de componentes off-the-shelf: CPU Intel 8088 a 4,77 MHz, chips de soporte 82xx de Intel (8237 DMA, 8259 PIC, 8253 timer, 8255 PPI…), controlador de vídeo Motorola 6845, disqueteras Tandon con controlador NEC µPD765, memoria RAM de terceros, impresoras Epson, monitores diseñados en IBM Japón, etc.
- Arquitectura relativamente abierta: un bus de expansión propio (lo que más tarde se llamaría ISA de 8 bits) con 5 ranuras e información exhaustiva publicada en los famosos Technical Reference, que incluían esquemas, desensamblado comentado de la BIOS y detalle de puertos, interrupciones y mapa de memoria.
- Posibilidad de que otros fabricantes creasen tarjetas y periféricos compatibles, fomentando un ecosistema de hardware en torno al PC.
Pero en medio de tanta apertura, IBM se guardó una pieza crucial: la BIOS (Basic Input/Output System). Ese firmware, de 8 KB en ROM, era el encargado de:
- Realizar el POST (Power-On Self Test), comprobando CPU, RAM, vídeo, etc.
- Inicializar los dispositivos básicos y preparar el entorno mínimo.
- Proveer una capa de abstracción de hardware a través de interrupciones (INT 10h para vídeo, INT 13h para disco, INT 16h para teclado, etc.) sobre las que se apoyaban tanto MS-DOS como muchas aplicaciones.
- Cargar el sector de arranque del disco y ceder el control al sistema operativo.
IBM publicó el código fuente de la BIOS en sus manuales, pero seguía siendo software protegido por copyright. Podías leerlo, estudiarlo y aprender cómo funcionaba el PC, pero no podías copiarlo literalmente. Para IBM esa BIOS era el “cerrojo” que impediría la aparición de copias baratas totalmente compatibles de su máquina, aun usando el mismo hardware básico.
Desde el punto de vista de negocio, el plan era brillante: casi nada del PC era realmente de IBM (ni CPU, ni sistema operativo, ni muchos periféricos), pero la BIOS era su pieza propietaria que garantizaba que, si querías un “IBM PC”, tenías que pasar por ellos.
MS‑DOS, CP/M‑86 y la capa BIOS: cómo se pensó el software del PC
Al lanzar el 5150, IBM anuncia soporte para varios sistemas operativos: CP/M‑86 de Digital Research, UCSD p‑System y su propio IBM PC‑DOS, basado en 86‑DOS de Seattle Computer Products y suministrado por Microsoft.
En la práctica, todo giró rápidamente alrededor de PC‑DOS/MS‑DOS. CP/M‑86 llegó tarde y caro, el p‑System tuvo poco tirón, y la mayoría de usuarios acabó con PC‑DOS. Microsoft, que venía de vender lenguajes como BASIC, entendía bien el valor de la portabilidad: igual que CP/M, MS‑DOS se diseñó como un sistema que pudiera adaptarse a muchas máquinas 8086 diferentes mediante una pequeña capa dependiente del hardware.
La idea de Microsoft e IBM en los primeros 80 era clara: los programadores debían usar las llamadas de MS‑DOS y de la BIOS en lugar de hablar directamente con el hardware. Cada fabricante tendría su versión OEM de DOS, ajustada a su máquina, y el software, si se mantenía dentro de esa “capa de abstracción”, podría funcionar en cualquier ordenador MS‑DOS, fuese o no un IBM.
Ese modelo funcionó un tiempo, sobre todo para aplicaciones de texto: procesadores de texto sencillos, programas de contabilidad, herramientas de línea de comandos… Mientras el uso era básicamente “tipo terminal”, con caracteres y poca exigencia gráfica, la dependencia del hardware concreto importaba poco. Pero el PC pronto se les quedó pequeño.

Cuando las aplicaciones saltan al hardware: límites de DOS y de la BIOS
Conforme el PC se adoptaba en empresas y hogares, las aplicaciones empezaron a explotar al máximo el hardware. Y ahí se rompió el “contrato moral” de programar solo contra DOS y BIOS:
- La BIOS de vídeo y DOS solo ofrecían salida carácter a carácter, sin funciones rápidas de cadenas, lo que además exigía pausas para evitar el famoso “efecto nieve” en CGA. Escribir directamente en memoria de vídeo multiplicaba el rendimiento por 5, 10 o 20, algo clave para lenguajes como Turbo Pascal o editores de texto avanzados.
- El subsistema gráfico era muy pobre: sin API de gráficos en DOS y con una BIOS que solo hacía cambios de modo o dibujo de píxeles a duras penas, cada programa que quería ser fluido en gráficos (juegos, CAD, presentaciones) recurría a acceso directo a VRAM.
- Los videojuegos necesitaban modos gráficos reales y trucos específicos de la tarjeta. La diferencia entre un PC “bueno para juegos” y uno mediocre podía depender de detalles muy concretos de hardware, algo imposible de abstraer bien con las llamadas de BIOS genéricas.
- El software de comunicaciones tenía que hablar directamente con el UART para exprimir velocidades de 19.200 baudios o más, porque las capas estándar eran demasiado lentas y limitadas.
- Incluso en aplicaciones de negocios, la velocidad era un factor comercial clave. Lotus 1‑2‑3, escrito en ensamblador y muy optimizado para el hardware del PC, barrió del mapa a Context MBA, más portable pero lentísimo en aquella generación de máquinas.
- Los sistemas de protección anticopia de disquete, muy habituales entonces, necesitaban acceso directo al controlador de disco para detectar sectores “mal formateados” o patrones especiales imposibles de ver con llamadas estándar.
Conclusión: si querías que tu software brillase en rendimiento o hiciese cosas avanzadas, tenías que programar para el IBM PC “a pelo”, usando su mapa de memoria, sus interrupciones, sus peculiaridades gráficas… El efecto colateral fue brutal: cualquier máquina 8086 que no fuera prácticamente un clon funcional del IBM PC quedaba fuera de juego porque los programas estrella no funcionaban o iban mal.
Primeros compatibles y el problema legal de la BIOS
Desde casi el minuto uno, algunos fabricantes vieron el filón de hacer máquinas capaces de ejecutar el mismo software que el IBM PC, usar las mismas tarjetas ISA y los mismos periféricos, pero con otros precios, formatos o prestaciones.
En junio de 1982 aparece el Columbia Data Products MPC 1600, considerado por muchos el primer PC compatible de la historia. Muy poco después, en noviembre de 1982, Compaq anuncia el Compaq Portable, un “portátil” (más bien transportable) del tamaño de una máquina de coser, con pantalla integrada y, sobre todo, compatibilidad prácticamente total con el IBM PC.
El gran escollo no era el hardware, sino la BIOS. IBM había dejado claro, también a golpe de demanda judicial, que copiar su código ROM era ilegal. El caso Apple vs Franklin en el entorno de los Apple II había dejado ya precedentes: el firmware está protegido por copyright. Muchos intentos tempranos de clonar la BIOS acabaron con fabricantes como Eagle, Corona o Handwell pagando acuerdos millonarios tras demandas.
La vía para esquivar ese muro legal fue la ingeniería inversa “limpia”, lo que se conoció como clean-room design o “diseño en habitación limpia”. La idea, aplicada primero por Compaq y luego popularizada por Phoenix, era tan simple como delicada jurídicamente: separar a los ingenieros en dos equipos que nunca se “contaminan” entre sí.

La “habitación limpia”: cómo clonar la BIOS sin copiarla
El procedimiento de habitación limpia se convirtió en la clave legal para romper el monopolio práctico de IBM sobre el PC. El método, aplicado por Compaq a principios de los 80 y luego por Phoenix Technologies, funcionaba así:
- Un primer equipo se encargaba de estudiar la BIOS original de IBM como si estuviese haciendo una auditoría técnica: desensamblado, análisis de comportamiento, pruebas con llamadas a interrupciones, comprobación de cómo respondía ante errores, etc.
- Ese equipo redactaba una especificación funcional detallada (“si llamas a esta interrupción con estos registros, ocurre tal cosa, en este orden, con estos efectos secundarios”), pero sin incluir fragmentos de código o estructuras internas.
- Un segundo equipo, aislado del primero y que, en teoría, jamás había visto el código de IBM, recibía solo esa descripción y escribía una BIOS nueva desde cero que cumpliera exactamente ese contrato funcional.
El resultado práctico era una BIOS distinta a nivel de código, pero compatible desde el punto de vista del software. Para aplicaciones, DOS e incluso para utilidades muy bajas de nivel, la máquina se comportaba como un IBM PC. Por eso, Lotus 1‑2‑3 o Microsoft Flight Simulator se utilizaban como “test de fuego”: si corrían sin problemas, la compatibilidad se consideraba lograda.
Compaq utilizó este enfoque para el Compaq Portable, que se convirtió en el primer PC 100% compatible de éxito masivo. IBM los llevó a juicio, pero Compaq pudo demostrar que había seguido una metodología de habitación limpia y la demanda fracasó. A partir de ese momento, la puerta quedó oficialmente abierta para otros.
Phoenix Technologies dio el siguiente paso lógico: empaquetar esa BIOS compatible como producto comercial. En lugar de fabricar sus propios ordenadores, Phoenix ofrecía su ROM a cualquier fabricante que quisiera crear PCs compatibles sin pelearse con IBM. American Megatrends (AMI) y Award Software siguieron un camino similar, proporcionando sus propias implementaciones legales.
Del compatible “cerrado” al mercado de clónicos: Phoenix, AMI, Award
La diferencia estratégica entre Compaq y Phoenix fue enorme. Compaq, pese a haber logrado su BIOS “limpia”, la mantuvo como activo propio: no la licenció a terceros, la usó para impulsar su propia gama de PCs y convertirse en rival directo de IBM en la parte alta del mercado.
Phoenix, en cambio, decidió democratizar el acceso a esa pieza crítica. Cualquier OEM que quisiera lanzar un PC compatible podía licenciar la Phoenix BIOS, asegurándose además de que dicha BIOS ya había sido validada legalmente frente a IBM. Eso reducía barreras de entrada: menos inversión en ingeniería inversa, menos miedo a batallas legales, tiempo de salida al mercado mucho más corto.
AMI BIOS y Award BIOS replicaron este modelo, y a mediados de los 80 ya existía un catálogo amplio de BIOS “de marca blanca” que podían integrarse en placas base de decenas (y luego cientos) de fabricantes. El resultado fue el “boom” del ordenador compatible IBM PC:
- Marcas como Amstrad e Investrónica en España popularizaron el PC compatible a precios mucho más bajos que los de IBM, apoyándose en BIOS licenciadas (Phoenix u otras) y en hardware asiático integrado.
- Aparecieron equipos semi‑compactos como el Amstrad PC‑1512, con fuente de alimentación en el monitor y todos los puertos integrados en placa, demostrando que el formato podía evolucionar sin perder compatibilidad.
- En todo el mundo comenzaron a surgir los llamados “clónicos de caja blanca”, montados por ensambladores locales con placas genéricas, tarjetas estándar y BIOS de Phoenix/AMI/Award.
En esta guerra de compatibilidad, IBM cometió varios errores de cálculo. Lanzó productos como el PCjr, con incompatibilidades significativas con el PC original, y más tarde la serie PS/2 con el bus MCA, un diseño técnicamente superior pero cerrado y bajo licencia. La industria respondió con el estándar EISA, una evolución abierta del bus ISA, ignorando en gran medida a IBM.

De “IBM compatible” a estándar Wintel: el gran beneficiado, Microsoft
Paradójicamente, el gran vencedor de la rebelión contra el control de IBM no fue Compaq ni Phoenix, sino Microsoft. La aparición masiva de compatibles con BIOS clonadas hizo realidad el sueño inicial de Bill Gates: que MS‑DOS (y luego Windows) fuese el sistema operativo común para una plataforma de hardware gigantesca, más allá de un solo fabricante.
Durante la segunda mitad de los 80, el mercado se reordenó alrededor de los “IBM PC compatibles”. IBM empezó a perder peso en su propio ecosistema: otros fabricantes sacaban antes las máquinas basadas en nuevos procesadores (como el 80386), o lanzaban equipos XT compatibles por debajo de los 1000 dólares, mientras IBM seguía anclada a ciclos y precios más propios del mundo empresarial clásico.
El término “IBM compatible” acabaría diluyéndose porque, llegado un punto, prácticamente todo lo que había en el mercado usaba esa misma arquitectura: CPU x86 (Intel o compatibles como AMD y Cyrix), bus ISA y descendientes, BIOS de terceras empresas y, sobre todo, MS‑DOS y Windows. De ahí nació el famoso acrónimo “Wintel” para describir la dupla Windows + Intel, aunque con el tiempo se quedó corto, dado el papel también crucial de AMD y la aparición de Linux y otros sistemas.
La insistencia de la industria en mantener compatibilidad hacia atrás marcó la evolución posterior del PC:
- El espacio de memoria de 1 MB del 8088 dejó el límite de 640 KB de RAM convencional, con los 384 KB superiores reservados a ROM, memoria de vídeo y expansiones. Allí nacieron las guerras entre memoria expandida (EMS) y extendida (XMS), y herramientas como EMM386 para simular EMS sobre XMS.
- Los gráficos avanzaron desde CGA/MDA a EGA y VGA, y luego a SVGA, pero sin un estándar claro al principio. Cada fabricante de tarjetas definía sus propios modos y mecanismos de acceso, hasta que se intentó unificar algo con VBE (VESA BIOS Extensions), con éxito desigual.
- Los nuevos modelos de CPU (286, 386, 486…) incorporaban modo protegido, memoria plana y características para multitarea, pero el ecosistema seguía arrastrando el lastre de aplicaciones DOS que accedían directamente al hardware y a interrupciones “reservadas”. De ahí el surgimiento de modelos de memoria como VCPI o DPMI para combinar DOS en modo real con código en modo protegido.
Con Windows, especialmente a partir de Windows 3.x y más aún con Windows 95/NT, el centro de gravedad pasó de la compatibilidad “IBM” a la compatibilidad “Windows”. Los fabricantes de hardware tenían que asegurarse ante todo de que sus máquinas soportaban la última versión de Windows, y las conferencias WinHEC de Microsoft marcaban en gran medida la hoja de ruta del hardware de PC.
La BIOS como firmware y su evolución: de chip ROM a Flash y más allá
Merece la pena detenerse un momento en la BIOS como pieza técnica en sí misma, más allá del caso IBM. Bajo las siglas de Basic Input/Output System se esconde un firmware esencial que:
- Reside en un chip ROM, EPROM o, hoy en día, EEPROM/Flash sobre la placa base.
- Arranca siempre en la misma dirección de memoria que espera la CPU al resetearse, garantizando que el procesador siempre sabe “dónde empezar”.
- Inicializa CPU, chipset, RAM, buses, controladores de disco, puertos, teclado y demás dispositivos mínimos necesarios para arrancar un sistema operativo.
- Proporciona interrupciones y servicios de bajo nivel que los sistemas operativos y programas pueden usar, especialmente en modo real.
En los primeros PCs, la BIOS solía estar en chips EPROM con ventana, borrables con luz ultravioleta. Más adelante llegaron las EEPROM y finalmente las BIOS “Flash”, actualizables por software. Eso permitió corregir errores, añadir soporte para nuevas CPUs o discos y, en general, prolongar la vida de las placas base.
La otra cara de la moneda es que flashear la BIOS nunca fue inocuo: un corte de luz o un fallo durante el proceso puede dejar la placa “muerta” si el contenido del chip queda corrupto, porque la CPU no tiene de dónde arrancar. Por eso los fabricantes comenzaron a añadir mecanismos de recuperación, BIOS duales, etc.
Con el tiempo, la clásica BIOS de 16 bits dio paso a estándares más modernos como EFI y UEFI, pensados para superar limitaciones históricas (arranque desde discos grandes, interfaces gráficas, soporte nativo para 64 bits, drivers modulares…). Aun así, durante décadas, incluso los sistemas más modernos han mantenido rutinas o modos especiales para seguir siendo capaces de arrancar software pensado para la “vieja” BIOS, perpetuando así la compatibilidad con las raíces del IBM PC.
Si hoy conectas un teclado USB, enciendes un PC con un procesador miles de veces más rápido que un 8088, y arranca un sistema moderno e incluso un emulador DOSBox a toda velocidad, hay una línea directa que conecta todo eso con aquella BIOS de 8 KB de 1981. La ingeniería inversa en habitación limpia, la aparición de Phoenix, AMI y Award, y la ola de clones que siguió, convirtieron lo que iba a ser el “candado” de IBM en el fundamento de un estándar global sobre el que cualquiera podía construir.
from Actualidad Gadget https://ift.tt/InHaA8v
via IFTTT





No hay comentarios:
Publicar un comentario