viernes, 19 de octubre de 2012

Presentación




Universidad Nacional Autónoma de México


Colegio de Ciencias y Humanidades

Plantel Sur 

Cibernética y Computación I

"Historia de la Cibernética y Computación /Origen del lenguaje de Pascal"

Flores Arredondo Mariana 

Grupo: 568

Indice

1.Origen del lenguaje de Pascal 
2.Historia de la Cibernética 
         2.1. Biónica y Robótica 
3.Historia de la Computación 
    3.1.Primera Generación (1951-1958)
    3.2.Segunda Generación (1958-1964)
    3.3.Tercera Generación (1964-1971)
    3.4.Cuarta Generación (1972-1984)
    3.5.Quinta Generación (1983 al presente)

Origen del lenguaje de Pascal


El PASCAL es un lenguaje de programación de alto nivel y de propósito general que ha derivado del ALGOL-60 y fue diseñado para enseñar técnicas de programación estructurada. Es de alto nivel porque su repertorio de instrucciones lo hacen próximo a los lenguajes humanos y a los procesos humanos de pensamiento. Sus instrucciones o sentencias se componen de expresiones de apariencia algebraica  y de ciertas palabras inglesas como BEGIN, END, READ, WRITE, IF, THEN, REPEAT, WHILE, DO.

Es de propósito general como el  BASIC,  el COBOL,  el FORTRAN,  el PL/I; porque no está enfocado a un tipo especifico de aplicaciones.

Pero este, a diferencia de otros lenguajes, contiene algunos rasgos singulares que han sido diseñados para estimular el uso de la "programación estructurada", un enfoque ordenado y disciplinado de la programación que  conduce  a la obtención de programas claros, eficientes y libres de errores. Por ello, el Pascal se utiliza ampliamente en la enseñanza de la informática.

El lenguaje de programación Pascal apareció por primera vez en 1971, de la mano de Niklaus Wirth.

Wirh inventó el lenguaje como una forma de mejorar el por aquel entonces arcaico Algol. No es el primer lenguaje que Wirth diseña, posteriormente inventó el Modula-2 y el Oberon. Sin embargo, paradójicamente, esos dos lenguajes han sido ampliamente superados por el Extended Pascal y el Object Pascal. De todos esos lenguajes, Pascal es el que más éxito ha tenido.
Aunque nace a principios de los 70, Pascal cobra auténtica vida a partir de principios/mediados de los 80, popularizado por el fabuloso Turbo Pascal de MS-DOS para PC, y sobre todo el Apple Pascal. Pascal ha sido tan popular hasta mediados de los 90, que una gran parte (la mayor parte) de las aplicaciones desarrolladas para Mac estaban realizadas en Pascal, así como una enorme parte también de los programas de MS-DOS.

Fue Borland la que, hasta el Turbo Pascal 7, se encargó de la mayor parte de la evolución de este lenguaje. A mediados de los 90, con el boom de Windows y el renacimiento de los sistemas Unix (entre ellos Linux) como ordenadores servidores primero y luego como estaciones de trabajo, motivó que Pascal pasara a un segundo plano en beneficio de C.
En ese momento, prácticamente solo Delphi (Object Pascal para Windows) consiguió mantenerse en la brecha, pero conformándose con una pequeña parte del mercado solamente.

Casi todo el mundo intentó pasarse a C++. Fíjate que decimos intentó. C++ no consiguió calar del todo por su extrema complejidad. Su sistema de objetos, los macros, los crípticos nombres de funciones, los namespaces tan difíciles de manejar, los templates, la STL y otra serie de cosas, hicieron que rápidamente mucha gente pasara de querer usaresa herramienta que todo el mundo proclamaba que era tan potente, a buscar alternativas que fueran más simples y prácticas. Sun, la compañía del Java, se gasto una millonada en promocionar su lenguaje, y tuvo un gran éxito, sin duda debido no solo al dinero en publicidad, sino a la gente que escapaba escaldada del C++. En realidad, Java no es un lenguaje fácil de aprender (obliga a pensar en objetos desde el principio, algo que los novatos no llevan bien), pero comparado con C++, se podía considerar como algo sencillo.

Borland, una compañía con no tanto dinero como Sun, no pudo competir con Pascal, y se tuvo que conformar sacando su propia máquina virtual de Java. Pero Delphi no ha dejado nunca de existir. Aun hoy sigue sacando versiones Delphi, con gran éxito, aunque no consigue subir significativamente su porcentaje de participación en el mercado.

El paso de Turbo Pascal a Delphi también trajo como consecuencias que apareciera Kylix, que no es más que un Delphi multiplataforma. No caló lo suficiente, debido a la licencia cerrada, y a que imponía que el programa compilado fuera GPL.

Posteriormente Microsoft compró la mayor parte de Borland. Con ello se abandonó Kylix, Linux, y se hizo a Borland 100% Windows. Esta estrategia prácticamente ha arruinado el avance de Pascal frente a otros lenguajes, en el entorno corporativo.

En el momento en que Borland pasó de Turbo Pascal a Delphi, apareció Free Pascal. Free Pascal es un intento de la comunidad de código libre de hacer un compilador compatible con Turbo Pascal para todas las plataformas más famosas (incluido Linux, OS X y Windows). Desde la versión 2.0, Free Pascal es además compatible con Delphi.

Free Pascal es, hoy en día, el sistema preferido para programar en Pascal multiplataforma. Su IDE principal, el Lazarus, un clon del Delphi, corre tanto en Windows como en OS X como en Linux.

Para la realización de este tutorial, recomendamos usar Lazarus. Es perfectamente posible usar Delphi, pues es totalmente compatible en lo básico y también en la mayoría de las cosas avanzadas.

Lazarus y Free Pascal son la gran esperanza del lenguaje de programación Pascal, y de los entornos de desarrollo multiplataforma en general. Su desarrollo es muy activo, y con toda seguridad tiene un futuro prometedor.






Historia de la Cibernética

La cibernética es el estudio de como los sistemas complejos afectan y luego se adaptan a su ambiente externo; en términos técnicos, se centra en funciones de control y comunicación: ambos fenómenos externos e internos del sistema. Esta capacidad es natural en los organismos vivos y se ha imitado en máquinas y organizaciones. Especial atención se presta a la retroalimentacióny sus conceptos derivados.



La cibernética es una ciencia, nacida hacia 1948 e impulsada inicialmente por Norbert Wiener que tiene como objeto “el control y comunicación en el animal yen la máquina” o “desarrollar un lenguaje y técnicas que nos permitirán abordar el problema del control y la comunicación en general” En 1950, Ben Laposky, un matemático de Iowa, creó los oscilones o abstracciones electrónicas por medio de un ordenador analógico: se considera esta posibilidad de manipular ondas y de registrarlas electrónicamente como el despertar de lo que habría de ser denominado computer graphics y, luego, computer art e infoarte. La cibernética dio gran impulso a la teoría de la información a mediados de los 60,la computadora digital sustituyo la analógica en la elaboración de imágenes electrónicas. En esos años aparecen la segunda generación de computadoras(con transistores en 1960) concretándose por entonces los 1° dibujos y gráficos de computadora, y la tercera (con circuitos integrados, en 1964) así como los lenguajes de programación. En 1965 tuvo lugar en Stuttgart la exposición”Computer-grafik” . Pero la muestra que consagró la tendencia fue la que tuvo lugar en 1968 bajo el titulo “Cibernetic Serendipity” en el Instituto de Arte Contemporáneo de Londres. También en ese año se destacó la exposición“Mindextenders” del Museum of Contemporary Crafs de Londres. En 1969 el Museo Brooklin organizó la muestra “Some more Beginnings”. En ese mismo año, en Buenos Aires y otras ciudades de Argentina, se presentaba Arte y cibernética, organizada por Jorge Glusberg con esta muestra se inauguraría los principios de la relación arte/ imagen digital en ese país. En España la primera manifestación fue la de “Formas computables”- 1969- “Generación automática de formas plásticas” -1970-ambas organizadas por el Centro de Cálculo de la Universidad de Madrid. En los primeros meses de 1972, el Instituto Alemán de Madrid y de Barcelona han presentado una de las muestras más completas,titulada<Impulso arte computador>Las primeras experiencias de lo que luego se llamaría net.art. se remontan al año 1994, se puede establecer, que las primeras experiencias donde la tecnología informática puesta al servicio de la comunidad .



Fuente: http://es.scribd.com/doc/15402784/CIBERNETICA01

Biónica y Robótica


Biónica

La biónica es la aplicación de soluciones biológicas a la técnica de los sistemas de arquitectura, ingeniería y tecnología moderna. Etimológicamente, la palabra viene del griego "bios"; que significa vida y el sufijo "´-ico" que significa "relativo a".
La biónica es aquella rama de la cibernética que trata de simular el comportamiento de los seres vivos haciéndolos mejores en casi todas las ramas por medio de instrumentos mecánicos.





Robótica 


Este término procede de la palabra robot. La robótica es, por lo tanto, la ciencia o rama de la ciencia que se ocupa del estudio, desarrollo y aplicaciones de los robots.

Los robots son dispositivos compuestos de sensores que reciben datos de entrada y que pueden estar conectados a la computadora. Esta, al recibir la información de entrada, ordena al robot que efectúe una determinada acción. Puede ser que los propios robots dispongan de microprocesadores que reciben el input de los sensores y que estos microprocesadores ordenen al robot la ejecución de las acciones para las cuales está concebido. En este último caso, el propio robot es a su vez una computadora.




LAS TRES LEYES DE LA ROBOTICA

Ley CERO: En 1985, Asimov publicó un relato en la que uno de sus robot se ve obligado a herir a un ser humano por el bien del resto de la humanidad. Surge así una nueva ley, considerada la Ley Definitiva, la llamada Ley Cero, superior a todas las demás: "Un robot no puede lastimar a la humanidad o, por falta de acción, permitir que la humanidad sufra daños". Quedando así modificada la primera ley: "Un robot no debe dañar a un ser humano, o permitir, por inacción, que un ser humano sufra daño, a menos que tal acción viole la Ley Cero".

1. Un robot no puede causar daño a un ser humano ni, por omisión, permitir que un ser humano sufra daños.

2. Un robot debe obedecer las órdenes dadas por los seres humanos, salvo cuando tales órdenes entren en conflicto con la Primera Ley.

3. Un robot ha de proteger su existencia, siempre que dicha protección no entre en conflicto con la Primera o la Segunda Ley.











Robótica


Este término procede de la palabra robot. La robótica es, por lo tanto, la ciencia o rama de la ciencia que se ocupa del estudio, desarrollo y aplicaciones de los robots.

Los robots son dispositivos compuestos de sensores que reciben datos de entrada y que pueden estar conectados a la computadora. Esta, al recibir la información de entrada, ordena al robot que efectúe una determinada acción. Puede ser que los propios robots dispongan de microprocesadores que reciben el input de los sensores y que estos microprocesadores ordenen al robot la ejecución de las acciones para las cuales está concebido. En este último caso, el propio robot es a su vez una computadora.




LAS TRES LEYES DE LA ROBOTICA

Ley CERO: En 1985, Asimov publicó un relato en la que uno de sus robot se ve obligado a herir a un ser humano por el bien del resto de la humanidad. Surge así una nueva ley, considerada la Ley Definitiva, la llamada Ley Cero, superior a todas las demás: "Un robot no puede lastimar a la humanidad o, por falta de acción, permitir que la humanidad sufra daños". Quedando así modificada la primera ley: "Un robot no debe dañar a un ser humano, o permitir, por inacción, que un ser humano sufra daño, a menos que tal acción viole la Ley Cero".

1. Un robot no puede causar daño a un ser humano ni, por omisión, permitir que un ser humano sufra daños.

2. Un robot debe obedecer las órdenes dadas por los seres humanos, salvo cuando tales órdenes entren en conflicto con la Primera Ley.

3. Un robot ha de proteger su existencia, siempre que dicha protección no entre en conflicto con la Primera o la Segunda Ley.

Historia de la Computación



El término computación tiene su origen en el vocablo en latín computatio. Esta palabra permite abordar la noción de cómputo como cuenta o cálculo, pero se usa por lo general como sinónimo de informática (del francésinformatique). De esta manera, puede decirse que la computación nuclea a los saberes científicos y a los métodos.



La Computación es la disciplina que busca establecer una base científica para resolver problemas mediante el uso de dispositivos electrónicos y sistemas computacionales.

Primera Generación (1951-1958)



En esta generación había una gran desconocimiento de las capacidades de las computadoras, puesto que se realizó un estudio en esta época que determinó que con veinte computadoras se saturaría el mercado de los Estados Unidos en el campo de procesamiento de datos. Esta generación abarco la década de los cincuenta. Y se conoce como la primera generación. Estas máquinas tenían las siguientes características:

  • Usaban tubos al vacío para procesar información.
  • Usaban tarjetas perforadas para entrar los datos y los programas.
  • Usaban cilindros magnéticos para almacenar información e instrucciones internas.
  • Eran sumamente grandes, utilizaban gran cantidad de electricidad, generaban gran cantidad de calor y eran sumamente lentas.
  • Se comenzó a utilizar el sistema binario para representar los datos.

En esta generación las máquinas son grandes y costosas (de un costo aproximado de 10,000 dólares).

La computadora más exitosa de la primera generación fue la IBM 650, de la cual se produjeron varios cientos. Esta computadora que usaba un esquema de memoria secundaria llamado tambor magnético, que es el antecesor de los discos actuales.