Tecnología

¿Qué son las ciencias de la computación?

Las ciencias de la computación son al conjunto de ciencias que se emplean en el terreno de la computación, tanto en la teoría como en la práctica. Este es su origen y sus aplicaciones en la actualidad

Por Redacción España, el 15/12/2020

auto ¿Te ha gustado nuestro artículo? ¡Vota!

Las ciencias de la computación, ciencias computacionales o ciencias de la informática reúnen al conjunto de ciencias que se emplean en el terreno de la computación, tanto en el plano teórico como en sus aplicaciones prácticas. Lenguajes informáticos, sistemas computacionales, computación gráfica, inteligencia artificial… Todas las disciplinas que entran en juego a la hora de computar se engloban en las ciencias de la computación.

Computadora y computación

El nombre ciencias de la computación puede dar lugar a equívocos. Sí, dentro de las ciencias de la computación se incluye el estudio de las computadoras, pero no es simplemente eso. Al final, la computadora es la herramienta que se emplea principalmente en este campo, pero las ciencias de la computación van mucho más allá.

Explicado de forma sencilla, las ciencias de la computación se encargan de la detección de problemas, el estudio de los mismos y el desarrollo de soluciones para esos problemas, a través de algoritmos capaces de darles una respuesta automatizada. Computable es todo aquello que se puede solucionar con un algoritmo, en palabras del matemático Alan Turing.

Pensemos, por ejemplo, en el Big Data. El problema en este caso es que estamos ante una cantidad masiva de datos de distinto tipo y que queremos convertirlos en información valiosa para la toma de decisiones. Tras su estudio en profundidad, llega la solución: las herramientas de almacenamiento y los algoritmos de limpieza de data y procesamiento automático de la misma hasta convertirla en esa información de la que hablábamos.

Así, las ciencias de la computación se aplican en todo el proceso, desde que nos encontramos ante un problema hasta que desarrollamos una respuesta eficiente, de manera automatizada, a través de algoritmos o procedimientos metódicos.

Por tanto, las ciencias de la computación están estrechamente vinculadas a los dispositivos que se crean en base a ellas y en los que se apoyan para continuar su evolución, pero la computación no empieza ni acaba en la computadora. Una persona puede hacer computación usando papel y boli. Simplificado, se trata de resolver problemas a través de unos algoritmos y utilizando unos datos.


Cuáles son las ciencias de la computación

Las ciencias de la computación se apoyan en diferentes disciplinas. La más evidente está clara: las matemáticas. A partir de aquí, hay otras disciplinas que se han desarrollado, que están englobadas dentro de las ciencias de la computación y que interactúan entre ellas. En la actualidad, algunas de las más destacadas son Inteligencia Artificial, Big Data, Bioinformática y Robótica.

Inteligencia Artificial

La Inteligencia Artificial está enfocada a la creación de algoritmos que aprendan como lo haría un cerebro humano. Una máquina recibe un entrenamiento inicial. Después, comienza un procesamiento de datos: los analiza, encuentra patrones y extrae resultados, de los cuales aprende. El ciclo se repite una y otra vez, con lo cual, la máquina está sometida a un perfeccionamiento continuo.

Big Data

Un dato por sí mismo no tiene valor, pero, cuando nos encontramos ante una cantidad masiva de datos, los limpiamos, los procesamos en busca de patrones y los convertimos en información, el escenario cambia. El Big Data hace de manera automatizada y a un coste accesible lo que una persona por sí misma no podría hacer: gestiona una cantidad de datos inabarcable para el ser humano en busca de esa información que haga que la toma de decisiones, por ejemplo, en una empresa, esté totalmente fundamentada.

A partir de esa información se pueden desarrollar predicciones certeras que ayuden a averiguar hacia dónde va a evolucionar un escenario y a tomar las decisiones no solo en base a la realidad actual, también en base a esa evolución que va a experimentar. Para todo eso, es necesario el desarrollo de unas herramientas específicas para el almacenamiento, el orden de los datos y la búsqueda de los patrones que les den sentido.

Bioinformática

En la bioinformática confluyen ciencias de la computación y biología. Básicamente, aplica las ciencias de la computación en el estudio de los datos de la biología, analizando secuencias de moléculas. Por tanto, los objetos de análisis más recurrentes en este campo son ADN, ARN, genética y secuencias de proteínas. De hecho, la bioinformática nació en la década de los 60 precisamente con el estudio de estas últimas.

El Big Data es fundamental en este contexto: se desarrollan modelos matemáticos para convertir grandes cantidades de datos biológicos en conocimiento que, a su vez, proporcione soluciones a problemas médicos y biológicos. Esta disciplina ha tenido un papel básico en el estudio del COVID-19, por ejemplo.

Robótica

La robótica es una rama de las ciencias de la computación también relacionada con las ingenierías mecánica, eléctrica y electrónica. Engloba todo el proceso de creación de robots, desde el diseño de los mismos hasta la puesta en práctica, con fines industriales, medicinales, domésticos y de transporte, entre otros terrenos.


Historia de la computadora

Como decíamos, uno puede hacer computación con papel y boli. Por tanto, las ciencias de la computación no solo tienen que ver con la computadora como tal, pero su desarrollo mutuo está estrechamente vinculado.

El punto de inflexión de la computación llegó con la primera computadora (entre el XIX y el XX, en función de lo que entendamos como primera computadora). No obstante, los precedentes se remontan muchos siglos atrás. De hecho, el ábaco, creado en torno al año 4.000 a.c., podría ser el primer antecedente, como el invento más antiguo que conocemos para facilitar el cálculo matemático a las personas.

Un viaje en el tiempo que pasa por la teoría del algoritmo de Musa al-Juarismi, la invención de logaritmo neperiano de John Napier, la regla de cálculo de Edmund Gunter, el prototipo de calculadora de Schickard, la pascalina de Pascal y la máquina de dividir y multiplicar de Leibniz (matemático además de filósofo), nos sitúa ya en el siglo XIX, donde encontramos los antecedentes más directos de la computación.

Quizás la Máquina Analítica de Charles Babbage y la Máquina de Turing sean los proyectos más destacados previos a la creación de las primeras computadoras. La de Babbage sería la primera máquina de cálculo diferencial pensada para funcionar de forma mecánica. Aunque las circunstancias no le permitieron construirla (no consiguió la financiación que necesitaba), las ideas del matemático inglés fueron la semilla para las máquinas de cálculo posteriores.

Además, la programadora Ada Lovelace se basó en la Máquina Analítica para desarrollar por primera vez el concepto de un algoritmo capaz de ser procesado por una máquina, el primer algoritmo informático, además de otros conceptos como el de subrutina o bucle. La matemática publicó sus ideas en un artículo de la revista Scientific Memoirs en 1842.

Ya en 1936 y también en un artículo,sobre los números computables con aplicación al problema de la decidibilidad, Alan Turing planteó una máquina que pudiera resolver todas las operaciones matemáticas que tengan solución: la Máquina de Turing. Ahí formalizó el concepto de algoritmo.

Primera generación de computadoras

Ya en los años 40 llegó la primera generación de computadoras, unas máquinas gigantes que ocupaban habitaciones enteras, creadas con tubos de vacío y tambores magnéticos. Los datos entraban por medio de tarjetas perforadas y cintas de papel y salían impresos.

El mundo estaba en plena II Guerra Mundial y estos primeros ordenadores se creaban, sobre todo, con finalidades de investigación científica y bélica, desde descifrar los códigos del enemigo, hasta calcular trayectorias de misiles.

Z1, ENIAC y Harvard Mark I fueron algunos de los modelos más emblemáticos de esta época, en cuyo término se comenzó la comercialización a empresas (con la UNIVAC I, que se vendió a la oficina del censo de Estados Unidos en 1951), y la producción en serie, de la mano de IBM.

Segunda generación de computadoras

En la segunda generación la entrada y salida de datos se mantenía (entrada con tarjetas perforadas y salida en impresión), pero se desterraron las válvulas de vacío, lo que permitió reducir el consumo, el coste y el tamaño de los monstruos e incrementar su fiabilidad y su eficiencia. El adelanto llegó de la mano del transistor, creado por William Shockley, Walter Brattain y John Bardeen, científicos trabajadores de los Bell Labs.

El invento fue publicado en 1948, pero no tuvo relevancia pública hasta que se empezó a comercializar el transistor de radio, en 1954, y las empresas electrónicas empezaran a incluirlo en sus computadoras, entre la segunda mitad de los 50 y el inicio de los 60. Junto con el transistor llegaron las memorias de núcleo de ferritas y los tambores magnéticos para el almacenamiento de la información y los primeros lenguajes informáticos de alto nivel, como Fortran (1957) o COBOL (1959).

Tercera generación de computadoras

Otro invento marcó el paso a la siguiente generación. Hablamos del chip, de Jack S. Kilby y Robert Noyce. No trabajaban juntos, uno estaba en Texas Instruments y otro, en Fairchild Semiconductor, pero ambos tuvieron la misma idea: la creación de un circuito integrado en el que todos los componentes electrónicos estuvieran hechos en miniatura en una pieza del mismo material, el silicio.

Como consecuencia, se produjo una nueva reducción muy sustancial del espacio y un incremento drástico de los niveles de eficiencia energética y velocidad. Dejamos atrás también las tarjetas perforadas y las impresiones: aparecen los teclados y las pantallas. Los primeros sistemas operativos, que habían surgido en los 50, alcanzaron notoriedad.

En este contexto, destaca la serie Edgar de IBM, el primer grupo de computadoras con circuitos integrados, más fiables y flexibles que las de segunda generación, más eficientes, más pequeñas y con novedades entre las que se incluían la multiprogramación, el teleproceso y la renovación de periféricos.

Cuarta generación de computadoras

Microprocesador. Es la palabra clave en la cuarta generación de computadoras. Robert Noyce era CEO de Intel cuando uno de sus empleados, el físico italiano Federico Faggin, entró en el proyecto de fabricación del microprocesador. El transalpino también había formado parte de la plantilla de Fairchild Semiconductor y había formado parte de proyectos de creación y mejora de circuitos integrados.

En 1971 y con Faggin a la cabeza, Intel lanzó el 4004, un microprocesador que, básicamente, era (y es) un ordenador en miniatura, un circuito integrado con todas las funcionalidades de la CPU de 4 bits en un solo chip que contenía alrededor de 2.300 transistores. La máquina podía realizar 60.000 operaciones sencillas cada segundo.

Acompañaron al 4004 otros microprocesadores, cada uno con una especialidad, lo que incluía una memoria ROM (el Intel 4001) y una memoria RAM (el Intel 4002).

El primer ordenador doméstico de IBM, el IBM PC (1981), su sucesor, el IBM PC XT (1983) y el Macintosh 128K de Apple (1983) también pertenecen a esta cuarta generación, en la que se desarrollaron también el ratón y las primeras interfaces gráficas de usuario.

Quinta generación de computadoras

Aunque existen diferentes teorías, la mayoría de expertos fecha el inicio de la quinta generación de computadoras en 1982. Ese año, Japón lanzó un proyecto con el que entró en la carrera tecnológica (hasta entonces, liderada por los anglosajones), el FGCS (Fith Generation Computer Systems).

La gran novedad residía en el desarrollo de tecnologías basadas en Inteligencia Artificial y la integración de las mismas en máquinas que, por tanto, serían mucho más avanzas que sus predecesoras. Con los nipones se empezó a hablar de procesamiento en paralelo y de softwares inteligentes o sistemas expertos.

Sexta generación de computadoras

Si el tubo de vacío marcó la primera generación, el transistor, la segunda, el circuito integrado, la tercera y el microprocesador, la cuarta, la Inteligencia Artificial marca la quinta generación. Por eso, una corriente asegura que seguimos en ese punto, aunque otras hablan de sexta generación y establecen el punto de partida entre finales del siglo XX y principios del XXI.

Hablamos de dispositivos que ya están totalmente diseñados para su uso doméstico y personal y que, por tanto, son cada vez más complejos por dentro y tienen más capacidad para realizar muchas tareas de forma simultánea sin que esto afecte a la operatividad. Explicado de forma sencilla, esto se realiza mediante la integración de varios microprocesadores que trabajan en paralelo y que integran, a su vez, varios circuitos que realizan diferentes funciones.

A esto se suman avances como la memoria con más eficiencia y capacidad, a partir de la sustitución de los anillos magnéticos por los chips, y la adaptación de los equipos a la nueva era de internet y a los nuevos sistemas de conectividad (redes inalámbricas, bluetooth o WiMax, entre otros).

Al mismo tiempo, los dispositivos se simplifican por fuera, para facilitar su utilización y mejorar la experiencia del usuario. Y hablamos de dispositivos en general, porque en la sexta generación de computadoras ya no solo hacemos referencia a ordenadores, también a las PDAs, los smartphones, las tablets...

En este contexto, hay corrientes que hablan de la séptima generación, que englobaría todos los dispositivos de uso cotidiano que ahora incluyen conexión a internet, que están interconectados y que, en definitiva, nos dan la entrada a la era del Internet de las Cosas (IoT). Televisores, relojes, electrodomésticos, coches… y lo que queda.

TAGS:
Imagen del autor Redacción España

Equipo de redacción de B12 España: Marketing, Big Data, Inteligencia Artificial y Ventas.

Ponte en contacto con nosotros:

+34 916 629 534

madrid@agenciab12.com

Calle Alcalá, 21, 8ºD. 28014 - Madrid