jueves, 19 de junio de 2014

Tecnología en los Jóvenes

Los Jóvenes y su relación con la tecnología
La tecnología se ha convertido en parte inseparable de la vida social, laboral y recreativa de las personas. La comunicación por mensajes de texto, actividades organizadas a través de redes sociales y la posibilidad de seguir los programas favoritos en la pantalla de una computadora ya son parte de la rutina en un alto porcentaje de hogares, al menos en aquellos en los que el nivel de ingresos permite el acceso a estos bienes. El teletrabajo, una modalidad que se funda en las nuevas tecnologías de la comunicación, constituye una tendencia cada vez más extendida y alentada.
Hasta hace no pocos años, los análisis sobre el uso de estos dispositivos, incluso los estudios puntuales sobre el rol de la telefonía celular en el 11-M de Madrid y las manifestaciones convocadas a través de facebook, estaban centrados en usuarios adultos. Sin embargo, en los últimos años y en sintonía con la evolución exponencial que se registra en el desarrollo y accesibilidad de estos artefactos, los niños y jóvenes aparecen como el nuevo público cuya relación con la tecnología merece ser considerada.
Así, en poco más de un lustro ese grupo etario pasó del locutorio para consulta o uso lúdico a la notebook en la habitación; de la búsqueda de datos en bibliotecas a las tareas encomendadas y resueltas por internet, y a la creación de grupos de estudio virtuales.
El celular, antes propiedad exclusiva de los padres, está en manos -en no pocos casos- de cada miembro de la familia y dejó de ser un mero emisor o receptor de mensajes para sumar herramientas de conectividad.
En los últimos días se conoció la novedad de un estudio realizado en el país entre 1200 jóvenes de 11 a 17 años, que revela que 6 de cada diez adolescentes tiene perfil en una red social, y que en la franja de 15 a 17 años esa cifra trepa al 90 por ciento. Es una de las conclusiones que volcó la directora del programa Escuela y Medios, del Ministerio de Educación de la Nación a un libro en el que se analiza -entre otros tópicos- cuántas horas pasan los chicos frente a la pantalla -y frente a qué pantalla- y qué cambios culturales revelan estas tendencias.
Más allá de las conclusiones a las que pudo arribar la autora, que traza una interesante radiografía de esta temática, conviene no perder de vista que ninguna herramienta es, en sí, buena o mala: en todo caso, es el uso lo que define su efectividad y conveniencia. En este punto es interesante analizar qué papel han ido asumiendo los adultos frente al acceso de los chicos a la tecnología, qué conocimiento tienen de los recursos con los que estos se manejan y en qué medida se involucran con los contenidos a los que acceden.
También conviene repasar las recomendaciones que se vienen haciendo en materia sanitaria sobre los riesgos que involucra el sedentarismo y su efecto en el aumento de sobrepeso que se registra, en gran medida, en la población infantil y juvenil de los países desarrollados y también en el nuestro.

Más allá de eso, cuestiones como el mejor aprovechamiento posible de una herramienta tan poderosa con fines informativos y sociales, y la contrapartida de riesgos que implican la publicación de datos personales o situaciones de acoso, son aspectos cruciales de una situación que superó hace tiempo la categoría de fenómeno, para convertirse en un modo de vida. Y que, como tal, no puede ser negado, ni admite la prescindencia.

Ciencia y tecnología para la Guerra


 La tecnología para la Guerra en la actualidad
La revolución científico técnica actual, con el desarrollo acelerado de la ingeniería genética y biotecnologíacibernética y telecomunicaciones, le ha dado también un ritmo acelerado a la carrera armamentista, los gastos militares en el mundo, para el 2005 alcanzaron 1 000 118 000 millones de dólares. Obviamente el primer consumidor de Armamentos fue los Estados Unidos con un 48% del total. La nueva carrera armamentista presenta tres direcciones:
      a)    Militarización del espacio extraterrestre (Guerra de las Galaxias).
      b)    Robotización del Armamento (Armamento inteligente).
      c)    Desarrollo de tecnologías cibernéticas y de información con fines militares (no letales).
Julio Verne, HG Wells y otros escritores de ciencia ficción no fueron capaces de imaginar los "inventos" de los hombres de la época actual para matar a otros hombres, a pueblos enteros, someterlos a una cultura globalizante y dominar el mundo. La teoría de la Guerra de Cuarta Generación, ha adquirido matices alucinantes, los "tanques pensantes" del Comando Estratégico de las Fuerzas Armadas de los Estados Unidos consideran que la época de la "barbarie" ya paso, que no es necesario usar armas atómicas, o incluso convencionales, que no se requiere derrumbar gobiernos, solo se requiere "eliminar" algunos adversarios selectivos y someter al resto de la sociedad a sus intereses mediante el empleo de armas "no letales", para ello todo un ejército de científicos, bioquímicos, microbiólogos, neuropsicólogos, fisiólogos, psicólogos, ingenieros y tecnólogos han sido movilizados para diseñar y experimentar nuevas armas. Más que dañar y matar a las tropas y la población se busca controlar su forma de pensar y su comportamiento. Según sus concepciones las guerras ahora se desarrollarán en dos campos:
      a)    De tecnologías
      b)    De ideas
Veamos algunas de estas tecnologías, que ellos mismos ponen a la venta, "filtran" para inducir terror o se les escapa por denuncias de personas comprometidas y en desacuerdo con estos planes.
La tecnología en comunicación e información: El desarrollo tecnológico e informático de la era de las comunicacionesla globalización del mensaje y las capacidades para influir en la opinión pública mundial, convertirán a las operaciones de acción psicológica mediática en el arma estratégica dominante.

Se basa en el desarrollo de estrategias de marketing, desinformación y terror psicológico fundadas en el estudio de los comportamientos individuales y grupales de sectores y/o estratos poblacionales considerados hostiles. Especial relevancia tiene el uso de la propaganda negra o información falsa de largo aliento con el objetivo de impactar sectores claves del mando o de la cadena de mando de las fuerzas opositoras.

La tecnología Magnética

Tecnología Magnética y Óptica para almacenamiento de información 
La Tecnología Magnética
Consiste en la aplicación de campos magnéticos a ciertos materiales cuyas partículas reaccionan a esa influencia, generalmente orientándose en unas determinadas posiciones que conservan tras dejar de aplicarse el campo magnético. Esas posiciones representan los datos, bien sean una canción de los Beatles o bien los bits que forman una imagen o el último balance de la empresa. Dispositivos magnéticos existen infinidad; desde las casetes o las antiguas cintas de música hasta los modernos Zip y Jazz, pasando por disqueteras, discos duros y otros similares. Todos se parecen en ser dispositivos grabadores a la vez que lectores, en su precio relativamente bajo por MB (lo que se deriva de ser tecnologías muy experimentadas) y en que son bastante delicados. Les afectan las altas y bajas temperaturas, la humedad, los golpes y sobre todo los campos magnéticos; si quiere borrar con seguridad unos cuantos disquetes, póngalos encima de un altavoz conectado en el interior de un coche al sol y déjelos caer a un charco un par de veces. Y si sobreviven, compre acciones de la empresa que los ha fabricado.

La tecnología óptica de almacenamiento por láser es bastante más reciente. Su primera aplicación comercial masiva fue el CD de música, que data de comienzos de la década de 1980. Los fundamentos técnicos que se utilizan son relativamente sencillos de entender: un haz láser va leyendo (o escribiendo) microscópicos agujeros en la superficie de un disco de material plástico, recubiertos a su vez por una capa transparente para su protección del polvo. Realmente, el método es muy similar al usado en los antiguos discos de vinilo, excepto porque la información está guardada en formato digital (unos y ceros como valles y cumbres en la superficie del CD) en vez de analógico y por usar un láser como lector. El sistema no ha experimentado variaciones importantes hasta la aparición del DVD, que tan sólo ha cambiado la longitud de onda del láser, reducido el tamaño de los agujeros y apretado los surcos para que quepa más información en el mismo espacio; vamos, el mismo método que usamos todos para poder meter toda la ropa en una única maleta cuando nos vamos de viaje... La principal característica de los dispositivos ópticos es su fiabilidad. No les afectan los campos magnéticos, apenas les afectan la humedad ni el calor y pueden aguantar golpes importantes (siempre que su superficie esté protegida). Sus problemas radican en la relativa dificultad que supone crear dispositivos grabadores a un precio razonable, una velocidad no tan elevada como la de algunos dispositivos magnéticos yen que precisan un cierto cuidado frente al polvo y en general cualquier imperfección en su superficie, por lo que es muy recomendable que dispongan de funda protectora. De todas formas, un CD es mucho más probable que sobreviva a un lavado que un disquete, pero mejor no tener que probarlo.

lunes, 27 de enero de 2014

La tecnología el futuro de nuestras vidas

La tecnología el futuro de nuestras vidas

Las innovaciones tecnológicas que se avecinan en el horizonte de los próximos cincuenta años modificarán de tal manera nuestras vidas actuales que sólo un cambio de mentalidad global podrá asimilarlas. Lo afirma el 2005 BT Technology Timeline, el ejercicio de prospectiva tecnológica elaborado por expertos de British Telecom, que anticipa las posibles innovaciones tecnológicas en campos tan dispares como la salud, la economía, la demografía, la energía, la robótica, el espacio, las telecomunicaciones y los transportes. 

Los autores se apresuran a aclarar en toda lógica que los escenarios que dibujan son meras posibilidades, así como las previsibles implicaciones sociales de tales innovaciones. Para dibujar estos escenarios han consultado a expertos de diversos campos de todo el mundo. Con ellos han perfilado un consenso respecto a qué tecnologías tienen más posibilidades de emerger en los próximos años, en qué momento harán irrupción en la sociedad y qué impacto social puede esperarse de ellas.

El resultado son unas mil tecnologías emergentes clasificadas por especialidades y por el período de tiempo en el que supuestamente estarán disponibles para la sociedad, tal como explica BT en un comunicado. Existe una versión panorámica del informe, así como otrainteractiva, que resultan muy elocuentes.

Los autores reconocen que muchas de las tecnologías dibujadas parecen de ciencia ficción, pero recuerdan al respecto la tercera ley del escritor de ciencia ficción Arthur C. Clarke, formulada en 1962: Cualquier tecnología suficientemente avanzada es indistinguible de la magia.

Nanotecnología y biotecnología, cruciales

Señalan al respecto que dentro de 60 años veremos cómo la nanotecnología y la biotecnología provocarán impactos en nuestras vidas que hoy consideraremos como mágicos, pero que serán normales para los hijos de nuestros hijos, debido a que nuestra escala temporal actual sólo puede aprehender una pequeña parte de lo que está en camino.

Si comenzamos por descubrir las tecnologías más remotas, lo que nos auguran estos expertos es que en 2051 el Reino Unido tendrá un equipo de fútbol formado íntegramente por robots, que para ese entonces habrá desaparecido completamente el agujero de la capa de ozono, que las comunicaciones telepáticas se habrán hecho corrientes entre las personas y que la información contenida en un cerebro humano podrá desde esa fecha ser transferida a un soporte artificial (los cerebros artificiales existirán desde 2040).

El viaje a través del tiempo, los primeros contactos con inteligencias extraterrestres, la circulación de personas a través del ciberespacio, los viajes a una velocidad superior a la de la luz o el colapso de la economía internacional, son escenarios relegados más allá de 2050, sin fecha posible. Son los más especulativos.


Futuro y presente

Lo más probable, sin embargo, es que en 2046 se haya consolidado la energía nuclear de fusión (un aliento para el proyecto ITER), que en 2041 exista una pequeña ciudad en la Luna, que en 2036 tengamos el primer ascensor espacial, que en 2031 los robots sean ya más inteligentes que nosotros, que en 2026 haya combates de boxeo entre androides, que en 2021 los yogurts (que incorporarán circuitos electrónicos de ADN en sus bacterias) nos cuenten chistes (ver al respecto lo que dice The Guardian, que en 2016 los coches sean pilotados automáticamente, que en 2017 podamos ir de vacaciones a un hotel en órbita, que en 2011 los robots cuiden nuestros jardines, o que el año que viene el ordenador procese más rápidamente que una persona.

Todo esto no es sino una caricatura de los escenarios tecnológicos previsibles descritos en el informe BT, que menciona también la posibilidad de que en 2012 existan azulejos de vídeo en el cuarto de baño para entretener a los niños, o paredes pintadas en el hogar que cambian de aspecto para estimular la energía vital, la felicidad o la calma.

No es la primera vez que BT realiza este ejercicio: uno anterior realizado en los años noventa alcanzó un grado de exactitud de entre el 80% y el 90%. En cualquier caso, no debemos olvidar que el objetivo de estos ejercicios no es hacer una quiniela para acertar o no respecto a lo que puede ocurrir.

La finalidad principal de la prospectiva es diseñar escenarios de futuro posibles con la finalidad de que estas perspectivas razonables de evolución nos permitan adoptar las mejores decisiones en el presente. Hay que imaginar qué puede ocurrir en los próximos años para adaptar nuestra mentalidad, nuestra profesión o nuestra actividad empresarial a esas posibles evoluciones. Es la mejor manera de vivir el presente. 

Tecnología química

CIENCIA Y TECNOLOGÍAS QUÍMICAS
En el Área están presentes prácticamente todos los campos más actuales de la química y se realiza una investigación competitiva en distintas temáticas que se hallan en la interface de la química con campos y disciplinas como la biología, la medicina, la energía, el medioambiente y los materiales, entre 
otros. Así, se llevan a cabo investigaciones en síntesis orgánica, en química organometálica, en el diseño y síntesis de nuevas moléculas bioactivas y con aplicaciones terapéuticas, en catálisis y biocatálisis y su aplicación a procesos diversos, investigaciones relacionadas con las tecnologías de los combustibles fósiles y de las energías renovables, la química de materiales y el desarrollo y la innovación de metodologías de química física y de instrumentación química también con diferentes aplicaciones. La preocupación dentro del Área por cuestiones medioambientales se evidencia en las líneas de investigación que desarrollan diversos grupos y que tienen como objetivo prevenir o minimizar la contaminación desde su origen.

OBJETIVO DE LA CIENCIA

1. Construir el conocimiento teórico( conceptos, leyes regularidades)
2. Formular Hipótesis
3. Definir Términos
4. Establecer relaciones entre fenómenos
5. Explicar la realidad
FUNCIONES DE LA CIENCIA
1. Describir el objeto
2. Trasformación de la realidad
3. Predecir
CLASIFICACION DE LAS CIENCIAS GENERALES
1. Dialéctica-----Leyes generales de cualquier fenómeno
2. Lógica-----Leyes especificas del pensamiento
PARTICULARES
1. Ciencias naturales---Biología, Química, Física etc.… Define aspectos de la actividad material
2. Ciencias sociales-Define aspectos de la Sociedad, Historia, política, pedagogía, Psicología, sociología, etc.…
3. Ciencias Técnicas- Define los medios de producción-Tecnología
Ciencias Naturales: estudio de las diferentes formas de movimiento de la materia
Ciencias Químicas; Estudio de los movimientos químicos
Ciencias Particulares: Química Orgánica, Inorgánica, bioquímica, Química Física, Química Analítica, Tecnología Química, Química general.
Tecnología Química: se ocupa del estudio de los procesos químicos, sus reacciones y los reactores correspondientes utilizados en el proceso de fabricaciones químicas.
La reflexión sobre la ciencia es antigua en la medida en que la propia ciencia supone una filosofía, una visión del mundo, además de un tipo de conocimiento susceptible de ser estudiado filosóficamente para dilucidar sus cualidades. La tecnología, sin embargo, no ha alcanzado tal grado de preocupación intelectual por ser concebida como una mera aplicación de conocimientos artesanales o una aplicación de la ciencia para producir artefactos. Uno de los primeros filósofos que reflexionó sobre la tecnología fue José Ortega y Gasset (1939), su Meditación de la técnica sigue siendo un punto de partida obligado. Ortega considera al ser humano como un ser técnico en la medida en que "la técnica es lo contrario de la adaptación del sujeto al medio, puesto que es la adaptación del medio al sujeto" y entiende que está en su naturaleza proyectarse mas allá de sus necesidades biológicas.

DESARROLLO

Para algunos investigadores, la ciencia moderna nació la noche del 9 de diciembre de
1609, en la que Galileo Galilei (1564-1642) dirigía por primera vez un telescopio hacia el cielo. El filósofo ingles Francis Bacon (1561-1626) es considerado el primero en establecer una teoría moderna de la ciencia al defender la experimentación como único vehículo para contrastar la verdad científica, es decir para construir un conocimiento inductivo a partir de los experimentos, pero fue Galileo el primero en ejercer ese nuevo estilo de investigación científica que rompería con la tradición deductiva de la filosofía natural de Aristóteles, que no contrastaba sus premisas con la experimentación. El hecho de que para desarrollar su ciencia empleara artefactos tecnológicos, como lo era el telescopio que el mismo había construido, habla de la estrecha relación que habría de existir en adelante entre ciencia y tecnología, pero no debe hacer caer en una simplificación de dicha relación.
El conocimiento y la estrategia para su producción forman parte orgánica del patrimonio cultural creado por el ser humano, pero su concentración en manos de determinados grupos y sectores los convierten en instrumentos de poder y hegemonía. Así, segregar a los actores sociales del acceso al saber científico y su método, conduce a formar individuos que, al decir de Paulo Freire (1981), "están simplemente en el mundo y no con el mundo y con los otros... Hombres espectadores y no recreadores del mundo".
No existe una ciencia verdaderamente neutral y exenta de valores, hacer ciencia es siempre un compromiso ético con la vida y para la vida. Por tanto, sus objetivos y su significación han de ser examinados también desde el prisma de las motivaciones éticas conducentes al descubrimiento del saber y a su aplicación en diferentes esferas de la actividad humana.
Se tiene, entonces, que promover una renovada cultura científica desde concepciones que articulen los requerimientos teóricos y metodológicos con posturas más abiertas y un espíritu humanista, respetando la dignidad de cada persona total y su derecho a disfrutar de los beneficios del progreso cientifico-tecnico. Convertir en realidad tales expectativas, requiere preparar con solidez a los diversos protagonistas cuya actividad profesional exige de la investigación permanente como factor vital para promover procesos de transformación desde las ciencias naturales y sociales.




La tecnología como práctica social

Tecnología social

La Tecnología Social es un movimiento social espontáneo que responde a una nueva línea de pensamiento popular, que une a todas las razas y culturas del mundo tras ideales y proyectos sociales, que van más allá de las fronteras políticas o religiosas. El principal eje es la comunicación, que surge por la necesidad vital de crear una situación, o un estado de las cosas, distinto del que se vive en la actualidad. Como fin, pretende fomentar el desarrollo de hacer algo importante de la tecnología de sus bienes y aplicación de conocimientos y tecnologías con fines netamente sociales, absolutamente pacíficos y opuestos a los objetivos comerciales o militares que determinan el actual avance y desarrollo tecnológico de la humanidad.
Este movimiento busca establecer una nueva escala de valores éticos y sociales, apuntando al estado de bienestar universal, administrado por instituciones populares apolíticas denominadas foros, donde todos los miembros de la sociedad, son administradores directos del patrimonio social, sin intermediarios ni representaciones políticas de ninguna índole.
Contexto histórico
Si bien la tecnología existe desde que el hombre primitivo pudo controlar el fuego, muy pocas veces ha sido un patrimonio popular, ya que solo una pequeña élite ha podido disfrutar de los beneficios de la ciencia.
Con la Revolución Industrial, comenzó una leve propagación de los beneficios que brindan el conocimiento y la tecnología, pero desde sus comienzos y hasta mediados del siglo XX la tecnología siempre fue elitista, condicionada por la economía y la política.
Recién a fines del siglo XX, con el auge de las comunicaciones y el surgimiento de Internet como medio de expresión realmente libre, por primera vez en la historia de la humanidad, la gente común pudo acceder por completo al conocimiento, a las ciencias y a las técnicas que pueden generar un estado de bienestar universal. Este libre acceso al conocimiento, actualmente está generando una nueva línea de razonamiento popular, que el actual uso comercial indiscriminado, y las aplicaciones bélicas de las complejas tecnologías disponibles, pueden y están generando daños irreparables a la humanidad y especialmente a la biosfera.
De esta nueva línea de razonamiento popular, surge el movimiento tecnológico social el cual es opuesto al antiguo modelo de tecnología imperial, excluyente y elitista que domino los primeros milenios de la historia humana.
La Tecnología Social
La tecnología social según la Real Academia Española se dan las definiciones de tecnología y social.
En cuanto a la "tecnología" dice:
Conjunto de teorías y de técnicas que permiten el aprovechamiento práctico del conocimiento científico.
Lenguaje propio de una ciencia o de un arte.
Conjunto de los instrumentos y procedimientos industriales de un determinado sector o producto.
Lo "social" se define como: a los socios o compañeros, aliados o confederados.
Interpretación
La tecnología social podría interpretarse así: “Conjunto de teorías y de técnicas que permiten el aprovechamiento práctico del conocimiento científico con lenguaje propio de una ciencia o arte perteneciente o relativa a la sociedad.”
Como podemos apreciar, el sentido literal de la frase resultante es un tanto abstracto, no obstante, en la expresión “tecnología social” encontramos varios puntos muy claros para todos los que la interpretamos…
En todos los casos se trata de “poner a disposición de la sociedad”, los conocimientos y avances científicos.
Todos asumimos que la ciencia y el conocimiento, pueden facilitar el acceso al bienestar social.
Por último, todos coincidimos en que la expresión “Tecnología Social” tiende a fomentar el desarrollo tecnológico con fines netamente sociales.
Ramas
Pero luego de estos tres puntos, nos encontramos con una gran bifurcación de conceptos.
Cuando hablamos de tecnología social, encontramos dos grandes ramas que se desarrollan en sentidos opuestos:
La primera rama denominada “tecnología social pura” es la que aplica y defiende el concepto de Tecnología social sin fines de lucro, apolítica, y absolutamente pacífica, fomenta ideales y proyectos sociales que van más allá de los beneficios individuales o uní sectoriales (no tiene fines lucrativos ni políticos, solo persigue el bienestar social común).
La segunda rama, denominada “tecnología social imperial” por impulsar el desarrollo tecnológico con fines comerciales o políticos (generalmente simula sus verdaderas intenciones).
Alineados tras la Tecnología Social pura, generalmente encontramos al sector obrero, el sector estudiantil, sociólogos, ecologistas, intelectuales, profesionales y ciudadanos comunes de clase media baja.
Por otro lado, la Tecnología Social imperial, agrupa a las clases sociales más conservadoras, media alta, dirigentes y militantes políticos, sindicales, miembros de las fuerzas de seguridad, empresarios, comerciantes, líderes religiosos, corporaciones y multinacionales.


La evolución del Internet

La gran evolución de internet desde su creación en 1969

Internet ha revolucionado el mundo. Hoy cumple 40 años y ha alcanzado más de 2,4 billones de usuarios. Esta infografía desarrollada por Trustly muestra cómo ha ido evolucionando internet desde 1969 que se realizó la primera conexión entre los ordenadores de Standford y UCLA, cuando también nació ARPANET.
En 1971, Ray Tomlinson envió el primer email y aparece el primer virus Creeper. Dos años más tarde, la palabra internet se usó por primera vez en una transmisión de control de protocolo. 1982 fue la fecha que marcó un antes y un después por el gran auge que supusieron los emoticonos y que a día de hoy siguen teniendo. Nueve años después Tim Berners Lee, de la CERN crea la primera página web.
Yahoo se funda en 1994 y justo al año siguiente Microsoft lanza Internet Explorer. Otro de los términos revolucionarios, weblog aparece en 1997 usado por Jorn Barger.
Un año muy importante en la historia de internet es 1998 por dos motivos. En primer lugar nace Google y el número de usuario de internet alcanza un millón. En 2001 aparece la mayor enciclopedia colectiva, Wikipedia.
Entre el 2003 y 2005 se dan varias innovaciones gracias a la aparición de Safari, MySpace, LinkedIn, Skype y WordPress. En 2004 aparece Facebook, Gmail, Flickr y Vimeo. Sin embargo, YouTube tuvo que esperar a 2005 para ver la luz.
Chrome de Google nace en 2008 y dos años después nace Instagram, aunque sólo disponible para Apple. Pinterest, que nace en 2010 consigue 10 millones de usuarios más rápido que las otras redes. Por último, 2012 sirve para que internet alcance los 2,4 mil millones de internautas.
 Internet comenzó a finales de los sesenta como un experimento de la Agencia de proyectos de investigación avanzada (ARPA, hoy llamada DARPA) del Departamento de Defensa de los Estados Unidos. DARPA experimentó con la conexión de redes de computadoras, concediendo becas a múltiples universidades y compañías privadas que se involucraran en la investigación.
 En diciembre de 1969, nació una red experimental con la conexión de cuatro nodos a través de circuitos de 56 Kbps. La nueva tecnología resultó ser altamente exitosa y condujo a la creación de dos redes militares similares: MILNET, en los Estados Unidos, y MINET, en Europa.
 Hacia 1985, ARPANET era altamente utilizada y estaba cargada de atascos. En respuesta la National Science Foundation (Fundación Nacional de Ciencia) inicio la fase 1 del desarrollo de la NSFNET. La NSFNET estaba compuesta por múltiples redes regionales y redes entre iguales (como la red de ciencia de la NASA) conectadas a un gran backbone que constituía el núcleo de toda la NSFNET.
 En su forma primitiva, en 1986, la NSFNET, creó una arquitectura de red más distribuida, de tres capas. Esta arquitectura conectaba campus y organizaciones de investigación con redes regionales, que se conectaban por turnos a un backbone de red principal que unía seis centros de supercomputadoras financiados nacionalmente. Los enlaces originales de 56 kbps se actualizaron en 1988 a los enlaces T1 más rápidos (1.544 Mbps).
 En 1990, Merit, IBM y MCI iniciaron una nueva organización conocida como redes y servicios avanzados (ANS). El grupo de ingeniería de Merit proporcionó una serie de base de datos de políticas y servicios de consultoría y administración de enrutamiento para la NSFNET, mientras que ANS operaba los routers del backbone y un centro de operaciones de red (NOC).
 Hacia 1991, el trafico de datos se había incrementado enormemente, lo que hizo necesario actualizar el servicio de red del backbone de la NSFNET a enlaces T3 (45 Mbps).
 En Estados Unidos, las redes agencias gubernamentales se interconectaron a los puntos de intercambio federal en internet (FIX)
Hoy en día el backbone de internet  es un conjunto de proveedores de servicios que tienen puntos de conexión llamados POP (punto de presencia) sobre múltiples regiones.
 Los proveedores que tienen POP por todo los Estados Unidos se denominan habitualmente proveedores nacionales. Los que cubren regiones específicas, o proveedores regionales, conectan a otros proveedores en uno o más puntos. Para permitir que los clientes de un proveedor enlacen a los clientes conectados a otro proveedor, el trafico se intercambia en punto de acceso a la red (NAP) públicos, o a través de interconexiones directas.
 Volviendo a la historia en 1992, la NSF quería desarrollar una petición de seguimiento que acomodara y promoviera el papel de proveedores de servicios comerciales que configurarían la estructura de un nuevo y más robusto modelo de internet. Al mismo tiempo la NSF desistiría del actual funcionamiento de la red principal y se enfocaría en aspectos de investigación e iniciativas.
Pero que es un NAP, en términos de NSF, un NAP es un switch de alta velocidad o una red de switches a los que pueden estar conectados un cierto número de routers para intercambiar tráfico. Los NAP deben trabajar a velocidades, de al menos, 100 Mbps y debe ser posible actualizarlos según lo solicite la demanda y el uso. El NAP puede ser tan simple como un switch FDI (100 Mbps) o como un switch ATM (normalmente más de 45 Mbps) pasando tráfico de u proveedor a otro.
Las redes adjuntas a los NAP tienen que trabajar a velocidades proporcionales a la velocidad de las redes acopladas (1.5 Mbps o superior), y tiene que ser actualizada según la demanda, el uso y los objetivos del programa lo requiera. A los NAP premiados por la NSF se les pedía ser capaces de conmutar tanto IP como CLNP (protocolo de red sin conexiones). Los requisitos para intercambiar paquetes CLNP y para implementar procedimientos basados en IDRP (protocolo de enrutamiento entre dominios, protocolo de gateway exterior ISO OSI) podrían abandonarse dependiendo del nivel del servicio en conjunto proporcionado por el NAP.
 Durante las primeras fases de transición desde ARPANET al backbone de la NSFNET, fueron creados para proporcionar ínter conectividad. Rápidamente se  convirtieron en importantes puntos de interconexión para el intercambio de información entre redes de investigación, educación y gubernamentales. Sin embargo, la gente de la política del FIX no les gustaba mucho la idea de permitir que se intercambiaran datos comerciales en esos servicios. Consecuentemente, se creó el intercambio comercial en internet (CIX).
 Las configuraciones físicas actuales de un NAP es una mezcla de switches FDI, ATM y Ethernet (Ethernet, Fast Ethernet y Gigabit Ethernet). Los métodos de acceso varían desde FDI y Gigabit Ethernet hasta DS3, OC3 y ATM OC12.
 Mientras internet continúa creciendo, la enorme cantidad de tráfico intercambiado entre grandes redes está haciendo que muchos NAP no puedan soportarlo. A menudo, los problemas de capacidad de los NAP se traducen en pérdidas de datos e inestabilidad. Por dichas razones, durante los últimos años ha evolucionado una alternativa a los NAP para la interconexión de proveedores de servicios: las interconexiones directas.
 La idea que se esconde tras ellas es simple. Mediante el suministro de enlaces directos entre redes y evitando totalmente los NAP, los proveedores de servicios pueden reducir los tiempos de aprovisionamiento, incrementar la fiabilidad y escalar consideradamente la capacidad de interconexión. 
El proyecto Routin Arbiter
 Otro proyecto para el que NSF solicitó servicios es el proyecto Routing Arbiter (RA), que está encargado de proporcionar tratamiento equitativo a los diversos proveedores de servicios de red en cuanto a administración de enrutamiento. El RA estipula una base de datos común de información sobre enrutamiento para promover la estabilidad y la administrabilidad de las redes.
 El hecho de que múltiples proveedores se conectaran a un NAP creó un problema de escalabilidad porque cada proveedor tenía que conectarse por igual con todos los demás para intercambiar información de enrutamiento y política. El proyecto RA fue desarrollado para reducir los requisitos de una malla de iguales entre todos los proveedores. En lugar de conectarse entre si mediante iguales, los proveedores pueden conectarse con un sistema central llamado servidor de ruta.
 Las siguientes son las principales tareas del RA según la propuesta de la NSF: 
Promocionar la estabilidad y administrabilidad del enrutamiento en internet.
Establecer y mantener bases de datos de topologías de red por métodos como intercambiar información de enrutamiento con los sistemas autónomos adjuntos (AS).
Proponer y establecer procedimientos para trabajar con personal de administración del NAP, el proveedor de vBNS y redes adjuntas regionales y de otros tipos, para resolver problemas y para soportar conectividad de extremo a extremo y QoS para usuarios de la red.
Desarrollar tecnologías de enrutamiento avanzado como el tipo de servicio y precedencia de enrutamiento, multidifusión, ancho de banda sobre petición y servicios de asignación del ancho de banda en cooperación con la comunidad global de internet.
Mantener estrategias de enrutamiento simplificadas, como el enrutamiento por defecto para redes conectadas.
 El proyecto RA fue un esfuerzo común de Merit Network, Inc., el instituto de ciencias de la información de la universidad del sur de California (USC ISI), Cisco System (como subcontratista de ISI) y la universidad de Michigan ROC (como subcontratista de Merit).
 El servicio RA constaba de cuatro proyectos: 
El servidor de ruta (RS). El RS puede ser tan simple como una estación de trabajo sun desplegada en cada NAP. El servidor de ruta solo intercambia información de enrutamiento con los routers del proveedor de servicios conectados al NAP.
Sistema de administración de la red. Este software monitoriza el rendimiento del RS: en cada RS se ejecutan rovers distribuidos que recopilan información, como, por ejemplo, estadísticas de rendimiento.
Base de datos Routing Arbiter (RADB). Esta es una de las diversas bases de datos de enrutamiento conocida colectivamente como registro de enrutamiento en internet (IRR).
Equipo de ingeniería de enrutamiento. Este equipo trabaja con los proveedores de red para configurar los iguales y resolver los problemas de red en el NAP.
 En marzo de 1998, Merit concluyó con éxito su trabajo en el proyecto Routing Arbiter.
 El proyecto del servicio de backbone de red de alta velocidad (vBNS) se creó para proporcionar un servicio especializado de backbone para los usuarios informáticos de alto rendimiento de los grandes centros de supercomputadoras (SCC) y para la comunidad investigadora.
 El 24 de abril de 1995, MCI y la NSF anunciaron el lanzamiento de vBNS. La vBNS ha sido considerada como el laboratorio de investigación y desarrollo para el siglo XXI. El uso de switching avanzados y tecnologías de transmisión por fibra óptica, modo de transferencia asincrona (ATM) y red óptica sincronía (SONET) permiten la integración de velocidades muy altas con señales de voz y video de alta capacidad.
 La NSF reconoció que los servicios de información serían un componente critico de la incluso más extendida red sin rotaciones. Como resultado, se propuso una petición par uno o mas administradores de servicios de información de la red (NIS) para la NSFNET.
 El administrador NIS se convertirá en el IR (registro de internet), o un registro delegado autorizado por el IR. Los servicios de registro de internet incluían lo siguiente: 
·         Asignación de numero de red.
·         Asignación de número de sistema autónomo.
·         Registro del nombre del dominio.
·         Registro de servidor de nombres de dominio.
 Sorprendentemente, aunque la comercialización de internet ha desembocado una tasa de crecimiento extraordinaria en los últimos diez años, aparece la iniciativa de la próxima generación de interne (NGI) que está desarrollando tecnologías de red avanzadas y aplicaciones revolucionarias. Y está demostrado en los test beds, que dichas capacidades son de 100 a 1.000 veces más rápidas de extremo a extremo que el internet actual.