You are on page 1of 44

WEB 1.0-2.0-3.

La 'Web 1.0 (1991-2003) es la fWeb 1.0orma más básica que existe, con
navegadores de sólo texto bastante rápidos. Después surgió el HTML que
hizo las páginas web más agradables a la vista, así como los primeros
navegadores visuales tales como IE, Netscape,explorer (en versiones
antiguas), etc.

La Web 1.0 es de sólo lectura. El usuario no puede interactuar con el


contenido de la página (nada de comentarios, respuestas, citas, etc),
estando totalmente limitado a lo que el Webmaster sube a ésta.

Web 1.0 se refiere a un estado de la World Wide Web, y cualquier página


web diseñada con un estilo anterior del fenómeno de la Web 2.0. Es
en general un término que ha sido creado para describir la Web antes
del impacto de la fiebre punto com en el 2001, que es visto por
muchos como el momento en que elinternet dio un giro.1

Es la forma más fácil en el sentido del término Web 1.0 cuando es usada en
relación a término Web 2.0, para comparar los dos y mostrar ejemplos
de cada uno.

¿Qué es la Web 2.0?

La Web 2.0 es la representación de la evolución de las aplicaciones


tradicionales hacia aplicaciones web enfocadas al usuario final. El Web 2.0
es una actitud y no precisamente una tecnología.

Es una etapa que ha definido nuevos proyectos en Internet y está


preocupándose por brindar mejores soluciones para el usuario final.
Muchos aseguran que hemos reinventado lo que era el Internet, otros
hablan de burbujas e inversiones, pero la realidad es que la evolución
natural del medio realmente ha propuesto cosas más interesantes como lo
analizamos diariamente en las notas de Actualidad.
Y es que cuando el web inició, nos encontrábamos en un entorno estático,
con páginas enHTML que sufrían pocas actualizaciones y no tenían
interacción con el usuario.
Pero para entender de donde viene el término de Web 2.0 tenemos que
remontarnos al momento en que Dale Dougherty de O’Reilly Media utilizó
este término en una conferencia en la que
compartió una lluvia de ideas junto a Craig
Cline de MediaLive. En dicho evento se
hablaba del renacimiento y evolución
de la web.
Constantemente estaban surgiendo nuevas
aplicaciones y sitios con
sorprendentes funcionalidades. Y así se dio la pauta para la Web 2.0
conference que arranca en el 2004 y hoy en día se realiza anualmente en
San Francisco, con eventos adicionales utilizando la marca en otros países.

Web 3.0 es un neologismo que se utiliza para describir la evolución del uso
y la interacción en la red a través de diferentes caminos. Ello incluye, la
transformación de la red en una base de datos, un movimiento hacia hacer
los contenidos accesibles por múltiples aplicacionesnon-browser, el empuje
de las tecnologías de inteligencia artificial, la web semántica, la Web
Geoespacial, o la Web 3D. Frecuentemente es utilizado por el mercado
para promocionar las mejoras respecto a la Web 2.0. El término Web 3.0
apareció por primera vez en 2006 en un artículo de Jeffrey Zeldman, crítico
de la Web 2.0 y asociado a tecnologías como AJAX. Actualmente existe un
debate considerable en torno a lo que significa Web 3.0, y cual es la
definición acertada.

Wiki

Un wiki (o una wiki) (del hawaiano wiki, «hacer las cosas de forma
sencilla y rápida») es un sitio web cuyas páginas pueden ser editadas
por múltiples voluntarios a través del navegador web. Los usuarios
pueden crear, modificar o borrar un mismo texto que comparten. Los
textos o «páginas wiki» tienen títulos únicos. Si se escribe el título de
una «página wiki» en algún lugar del wiki entre dobles corchetes (...),
esta palabra se convierte en un «enlace web» a la página wiki.
En una página sobre «alpinismo», por ejemplo, puede haber una palabra
como «piolet» o «brújula» que esté marcada como palabra perteneciente
a un título de página wiki. La mayor parte de las implementaciones de
wikis indican en el URL de la página el propio título de la página wiki
(en Wikipedia ocurre así: http://es.wikipedia.org/wiki/Alpinismo),
facilitando el uso y comprensibilidad del link fuera del propio sitio web.
Además, esto permite formar en muchas ocasiones una coherencia
terminológica, generando una ordenación natural del contenido.
La aplicación de mayor peso y a la que le debe su mayor fama hasta el
momento ha sido la creación de enciclopedias colectivas, género al que
pertenece la Wikipedia. Existen muchas otras aplicaciones más cercanas
a la coordinación de informaciones y acciones, o la puesta en común de
conocimientos o textos dentro de grupos.
La mayor parte de los wikis actuales conservan un historial de cambios
que permite recuperar fácilmente cualquier estado anterior y ver qué
usuario hizo cada cambio, lo cual facilita enormemente el
mantenimiento conjunto y el control de usuarios destructivos.
Habitualmente, sin necesidad de una revisión previa, se actualiza el
contenido que muestra la página wiki editada.

Diferencia de Wikis y blogs

Los Wikis tan conocidos o poco conocidos son páginas que cualquiera
puede modificar a su antojo mientras tenga un navegador. Wiki, en
hawaiano quiere decir "rápido" o sea que podemos constatar con el nombre
que la creación y la modificación de las páginas no implica la más mínima
dificultad.

Los Blogs, Weblogs o bitácoras, son un nuevo medio de comunicación a


través de Internet. Comenzaron siendo diarios personales en línea, pero han
sobrepasado ya esa idea y su uso hoy en día es muy variado.

Los Blogs tienen una parte pública que es la que ve todo el mundo y una
parte privada desde la que se edita el propio Blog. La parte pública tiene
varias zonas: la principal son los post, artículos o historias, que se quieren
contar, ordenadas inversamente a la fecha, es decir, la más reciente primero
y donde cualquiera pueden dejar comentarios a cada uno..

Estos post se pueden archivar cronológicamente o temáticamente por


categorías, y cada uno tiene una dirección permanente (permalink).

Los Blogs suelen llevar también enlaces a otros sitios que se consideran de
interés, y además pueden llevar un sistema de sindicación de contenidos,
para poder compartir información con otros sitios.

La diferencia más clara entre Blogs y Wikis es el grado de participación.


Numerosos Blogs invitan a participar con comentarios, pero pocos dejan
modificar el texto original. Por el contrario, los Wikis son sitios abiertos a
todos.

De hecho, hoy día varias plataformas: twiki, swiki, zwiki, etc., permiten
crear Wikis (de la misma manera que varios programas permiten crear
Blogs). El usuario no necesita conocer el modo en que funcionan, basta con
que sepa que puede modificar una página, cambiar su dirección, volver a
nombrarla, agregar un enlace hipertextual, o sencillamente destruirla. Las
páginas quedan almacenadas en una base de datos accesible en formato
HTML, el idioma básico de la web. Los Wikis no pretenden ser muy
formales. Los textos dominan, las imágenes son pocas y los enlaces
hipertextuales están presentes en todo momento.

Es lógico pensar que dado tan abierto medio de expresión en la web no


resulte muy conveniente por que cualquiera podría agregar información
nociva pero en el fondo, el hecho de agregar vandalismo o contenido
negativo no resulta gratificante para la gente por la sencilla razón que otros
lo eliminan muy rápidamente aunque por ahí me ha tocado ver un sitio
llamado la jaula muy nocivo diría yo, ya que lo que se promueve ahí entre
otras cosas es la cobardía. Niños, adolescentes o hasta adultos (sin duda)
escriben mensajes para alumnos de todas "muchas escuelas" que ahí se
encuentran dadas de alta y lo hacen por lo general de una manera anónima
o utilizando el nombre de alguien más que por supuesto no son ellos. Esto
lejos de resultar un medio de expresión sano insisto en que es una forma de
abrirle las puertas a comentarios cobardes por que la mayoría es para hablar
mal de alguien pero sin dar la cara, ocultándose en este escudo que es la
web para difamar, lastimar o simplemente exponer situaciones o acciones.

Sinceramente a todos nos dan ganas de decirle a alguien muchas veces lo


mal que nos cae, lo pedante o hipócrita que es pero definitivamente sería de
más valor hacerlo frente a frente. Pero en fin estos sitios como muchos
otros existen y seguirán mientras tengan audiencia, gente que se pone al
nivel de estas páginas.

RSS

RSS son las siglas de RDF Site Summary or Rich Site Summary , un
formato XML para sindicar o compartir contenido en la web. Se utiliza
para difundir información actualizada frecuentemente a usuarios que se han
suscrito a la fuente de contenidos. El formato permite distribuir contenidos
sin necesidad de un navegador, utilizando un software diseñado para leer
estos contenidos RSS (agregador). A pesar de eso, es posible utilizar el
mismo navegador para ver los contenidos RSS. Las últimas versiones de
los principales navegadores permiten leer los RSS sin necesidad de
software adicional. RSS es parte de la familia de los formatos XML
desarrollado específicamente para todo tipo de sitios que se actualicen con
frecuencia y por medio del cual se puede compartir la información y usarla
en otros sitios web o programas. A esto se le conoce como redifusión web o
sindicación web (una traducción incorrecta, pero de uso muy común).

AUDIOBLOG
Un audioblog es una variante de weblog o bitácora que consiste en una
galería de ficheros de audios en diferentes formatos, publicados
regularmente por uno o más autores. El autor puede autorizar a otros
usuarios a añadir comentarios u otros ficheros de audio dentro de la misma
galería.

AUDACITY.

Audacity es una aplicación informática multiplataforma libre, que se


puede usar para grabación y edición de audio, fácil de usar, distribuido
bajo la licencia GPL.
Es el editor de audio más difundido en los sistemas GNU/Linux.

• PODSCASTING:

El podcasting consiste en la distribución de archivos multimedia


(normalmente audio o vídeo, que puede incluir texto como subtítulos y
notas) mediante un sistema de redifusión (RSS) que permita suscribirse
y usar un programa que lo descarga para que el usuario lo escuche en el
momento que quiera. No es necesario estar suscrito para descargarlos.
Se pueden escuchar o ver desde la página web en la que han sido
colocados. Blogs como Wordpress y otros permiten realizar podcasting
con el uso de herramientas gratuitas (plug-ins), como WordTube o
Podpress. También se pueden descargar los archivos de sonido y video.
A partir de ahí, es algo personal. Se pueden usar programas especiales
que leen archivos de índices, descargan la música automáticamente y la
transfieren a un reproductor mp3. También se puede optar por
escucharlo en el ordenador e incluso copiarlo en CDs de audio a partir
de los archivos mp3 u ogg, según el formato original.
Otros programas que permiten escucharlos son Doppler, disponible
sólo en inglés y con una interfaz muy sencilla, e Ipodder, ahora llamado
Juice, disponible en español.
El día 28 de junio de 2005 Apple lanzó iTunes 4.9 con soporte para
Podcasting, lo que provocó que, por primera vez, un software usado por
un amplio espectro de la población conociera este nuevo medio de
comunicación.

Long Term Evolution

El siguiente paso en la evolución hacia las Redes de Cuarta


Generación o 4G se conoce como LTE (3GPP Long Term
Evolution), y corresponde a las siglas del proyecto UTRA & UTRAN
Long Term Evolution, promovido por el 3rd Generation Partner Ship
Project (3GPP) a finales de 2004 para trabajar sobre la evolución del
estándar de comunicación de Tercera Generación WCDMA, que es la
base del sistema UMTS.
Desde que el 3GPP desarrolló la primera versión de WCDMA y de
su red de acceso radio (compuesta por los elementos que se encargan
de la gestión de los recursos radioeléctricos y la conexión a la red) a
finales de 1999, denominada UTRAN (UMTS Terrestrial Radio
Access Network), se han desarrollado diferentes versiones. A modo
de resumen, los principales hitos se presentan a continuación:
Release 99: primera versión de WCDMA desarrollada a finales de
1999, y que formó parte del conjunto de normas IMT-2000.
Release 5: desarrollada en 2002, introdujo mejoras de velocidad en
las comunicaciones desde la red al usuario (enlace descendente)
conocidas como HSDPA.
Release 6: concluida a finales de 2004, introdujo mejoras de
velocidad en las comunicaciones entre el usuario y la red (enlace
ascendente) conocidas como HSUPA.
Releases 7 a 10, son pasos hacia un acceso con mayor ancho de
banda, menor latencia y mayor capacidad para poder atender la
demanda de las zonas urbanas.
CONFERENCIAS WEB
Una conferencia web es similar a una reunión personal porque
permiten a los asistentes interactuar entre sí, participan entre 2 y
20 personas y pueden compartir

Diferencias entre videoconferencia web, seminario web y


videoconferencia

Las videoconferencias web son reuniones ‘virtuales’ a través de Internet


cuyos participantes trabajan en distintas ubicaciones físicas. La sala de
reuniones real se sustituye por el escritorio del ordenador del anfitrión de la
reunión (la persona que la ha organizado). Cada participante se sienta ante
su propio ordenador, donde puede ver todo lo que el presentador va
mostrando en su pantalla (función de ‘desktop sharing’ o escritorio
compartido).
Durante la reunión en línea, el anfitrión puede ceder el papel de
presentador a cualquiera de los demás participantes. En esencia,
las conferencias web poseen características similares a las
reuniones ‘en persona’, porque permiten que los asistentes
interactúen entre sí (principio de comunicación ‘de muchos a
muchos’).’
En las conferencias web participan entre 2 y 20 personas,
pudiendo compartir documentos y aplicaciones. En cambio los
seminarios web (webinars) se utilizan básicamente para
formación en línea o eventos en línea, como conferencias de
prensa, y pueden tener más de 100 participantes. Las soluciones
para seminarios web facilitan considerablemente el proceso de
invitación y la presentación de información a grandes audiencias
(principio de comunicación ‘de uno a muchos’). Las
videoconferencias sirven básicamente para transmitir señal de
vídeo en directo a los participantes.
los sitios q se usan generalmente para hacer conferencias webs
son:
-Illuminate
-wiziku oovo

REDES SOCIALES
En estos días cada vez es mas complicado mantenerse al día de la cantidad
de nuevosmashups 2.0, redes sociales, agregadores, y demás servicios
online que salen a cada minuto. Si has intentado mantener perfiles en las
redes sociales mas conocidas sabrás de lo que estoy hablando.

Solo con inventos como Friendfeed es posible mantener todo


medianamente ordenado, ofreciendo un perfil mas o menos completo de tu
actividad en la red. Pero al final, no queda otra, tienes que elegir donde
estar y donde no.
Tienes que tomar posiciones por Twitter o Plurk, por Facebook o MySpace,
por Xing, Viadeo o LinkedIn, por WordPress o Blogger, YouTube o
BlipTV; es imposible estar en todos lados si además tienes una vida.
Yo lo he intentado, y es imposible. Al final te vas manteniendo dentro de la
red gracias a echarle tiempo y ganas, te vas fidelizando a aquellos servicios
donde tienes mas amigos, independientemente de su calidad (como
Twitter).
Es por eso que cada vez mas hay que tomar posiciones, decidirse por unas
u otras – además,cada mashup tiene su nicho mas o menos concreto, me
explico …
Si hablamos de redes sociales:

• Facebook parece mas orientada a público en general, es como el


MySpace de los que van madurando pero aún añoran las filigranas
• MySpace es el entorno alocado que gusta a los mas jóvenes y – no se
porqué – a los músicos
• Tuenti es un Facebook sencillo, para los que no quieren complicarse
• Viadeo, Xing y LinkedIn son para socializar perfiles profesionales,
un concepto mas de trabajo, mas maduro

En cuanto al Microblogging:

• Twitter es hoy el estándar, y a pesar de lo mal que funciona tiene un


ecosistema tan amplio a su alrededor, con cientos de aplicaciones,
que parece estar aquí para quedarse
• Plurk parece estar hecho para los rebotados de Twitter, con mas
florituras (la verdad, el aspecto inicial es horrible) y funcionalidades
• Tumblr ya es para los que quieren un microblogging menos social,
quizás mas serio y/o estático

Podríamos seguir pero al final cada uno tiene la elección en su mano. En mi


caso, he tomado estas decisiones:

• Twitter para contar mis “status”, para tener informado al personal de


todo lo que hago y ver lo que hacen los demás. He probado Plurk
pero a fin de cuentas es lo mismo y, además, ya estoy viciado con
Twitear desde el iPhone.
• WordPress como CMS, por razones obvias y porque es el término
medio que mejor se adapta a mis necesidades.
• Xing, LinkedIn y Viadeo – Aquí no me vuelvo loco pero mantengo
perfiles en todos por cuestiones de necesidad, por tener presencia
profesional.
• BlipTV para los vídeos, es mejor plataforma, te permite cargar
grabaciones por FTP, personalizar los reproductores, etc.
• FriendFeed para ofrecer la posibilidad de disponer de toda mi
actividad en el resto de sitios.
REDES SOCIALES:
Una red social es una estructura social compuesta de personas , las cuales
están conectadas por uno o varios tipos de relaciones, tales como
amistad,parentesco, intereses comunes, intercambios económicos,
relaciones sexuales, o que comparten creencias, conocimiento o prestigio.
El análisis de redes sociales estudia esta estructura social aplicando la
Teoría de Grafos e identificando las entidades como "nodos" o "vértices" y
las relaciones como "enlaces" o "aristas". La estructura del grafo resultante
es a menudo muy compleja. Como se ha dicho, puede haber muchos tipos
de lazos entre los nodos. La investigación multidisciplinar ha mostrado que
las redes sociales operan en muchos niveles, desde las relaciones de
parentesco hasta las relaciones de organizaciones a nivel estatal (se habla
en este caso de Redes políticas), desempeñando un papel crítico en la
determinación de la agenda política y el grado en el cual los individuos o
las organizaciones alcanzan sus objetivos o reciben influencias.

En su forma más simple, una red social es un mapa de todos los lazos
relevantes entre todos los nodos estudiados. Se habla en este caso de
redes "sociocéntricas" o "completas". Otra opción es identificar la red
que envuelve a una persona (en los diferentes contextos sociales en los
que interactúa); en este caso se habla de "red personal".

La red social también puede ser utilizada para medir el capital social (es
decir, el valor que un individuo obtiene de los recursos accesibles a
través de su red social). Estos conceptos se muestran, a menudo, n un
diagrama donde los nodos son puntos y los lazos, líneas.

TECNOLOGIA EN MONITORES

- LCD:
Una pantalla de cristal líquido o LCD (acrónimo del inglés Liquid
Crystal Display) es una pantalla delgada y plana formada por un número de
píxeles en color o monocromos colocados delante de una fuente de luz o
reflectora. A menudo se utiliza en dispositivos electrónicos de pilas, ya que
utiliza cantidades muy pequeñas de energía eléctrica.
- SED:
Utiliza rayos catódicos, pero no solamente tres que son desviados para
iluminar cada píxel, sino que emplean ¡miles de ellos! Es decir, tres rayos
(RGB) para cada pìxel de la pantalla. Los emisores o cañones de rayos se
encuentran a unos pocos centímetros de la rejilla y la pantalla de fósforo;
por lo tanto, la profundidad de estas pantallas disminuye hasta casi
parecerse a una LCD o de plasma.
La pantalla de vidrio tambièn está cerrada al vacío, como en el caso de
losCRT, y poseen una diferencia de potencial de 10.000 voltios entre el
emisor y el receptor. Todos los rayos de electrones viajan desde sus
cañones hasta sus celdas de fósforo, iluminandólas y formando el color
deseado.
Empleando esta tecnología se evitan los efectos indeseados como los
decontraste, ángulo de visión y profundidad de color, ademas de ser mas
livianas y portátiles. En definitiva, la calidad de imagen es excelente, los
costos son inferiores a los de una pantalla de plasma o LCD, y tienen una
profundidad de tan sólo cuatro centímetros. Se espera que esta tecnología
salga al mercado dentro de poco, ya que reúne lo mejor de cada uno de los
sistemas empleados en las pantallas actuales.
-OLED:

• Las pantallas están sufriendo desde hace tiempo un proceso de


adelgazamiento que parece no tener fin. Los monitores de plasma y
LCD no han acabado aún de sustituir plenamente a los
voluminosos televisores de tubo y ya tenemos a la vista la próxima
revolución, las ultrafinas pantallas OLED. (Sony empezará a
comercializar estas navidades una televisión que no supera los tres
milímetros de grosor basada en esta tecnología.)
• La tecnología OLED, basada en la emisión de luz a partir de un
diodo orgánico que reacciona a una corriente eléctrica, es según
los expertos más eficiente, y permite construir pantallas más
ligeras y delgadas que las actuales. El problema, por ahora, parece
ser la fabricación de monitores de gran tamaño, como los que
están disponibles en LCD y plasma.
• El modelo que Sony empezará a comercializar en navidades en
Japón, llamado XEL-1, tendrá un tamaño de 11 pulgadas que se
venderá por 200.000 yenes (1.218 euros). Con ella, la compañía
japonesa desea recuperar el liderazgo tecnológico del sector.
Actualmente es el segundo fabricante de pantallas de cristal líquido
por número de ventas, por detrás de la coreana Samsung.
• Una de las grandes ventajas de las pantallas OLED es que, a
diferencia de las pantallas LCD, no necesitan retroiluminación, lo
que permite reducir su tamaño aún más. Además ofrecen mejoras
en "calidad de imagen, ángulo de visión, tiempo de respuesta y un
mayor ratio de contraste," según un informe de la firma
DisplaySearch.
• El mismo estudio señala que el mercado de pantallas de diodos
orgánicos emisores de luz (OLED por sus siglas en inglés) está
floreciendo y se prevé que sus ventas crezcan un 117 por ciento en
el próximo año, a medida que más productos clave como teléfonos
móviles adoptan la tecnología. Aún así, el problema del tamaño de
la pantalla sigue presente y frenará la extensión de OLED. "No
creo que vaya a sustituir al LCD de la noche a la mañana", ha
declarado el presidente ejecutivo de Sony, Ryoji Chubachi, que no
obstante insiste en el "gran potencial de esta tecnología".
• Sony no es el único fabricante que trabaja con lo diodos orgánicos
aplicados a la televisión. Toshiba ha anunciado que empezará a
colocar en las tiendas televisiones OLED en el año 2009.

ANTIVIRUS
Los antivirus son una herramienta simple cuyo objetivo es detectar y
eliminar virus informáticos. Nacieron durante la década de 1980.
Con el transcurso del tiempo, la aparición de sistemas operativos más
avanzados e Internet, ha hecho que los antivirus hayan evolucionado
hacia programas más avanzados que no sólo buscan detectar virus
informáticos, sino bloquearlos, desinfectarlos y prevenir una
infección de los mismos, y actualmente ya son capaces de reconocer
otros tipos de malware, como spyware, rootkits, etc.

QUE SON LOS SPYWARES?

La figura del espía ha sido habitual en el cine y la literatura. Tipos


misteriosos, capaces de pasar desapercibidos en cualquier lugar y
extremadamente inteligentes. Su misión: recoger información y
enviarla. Como personaje de ficción, resultan atractivos, pero seguro
que no te gustaría vivir siempre con la sospecha de que hay alguien
en tu casa, al que no puedes ver y que se encarga de informar sobre
todo lo que haces en tu vida cotidiana.

En el mundo de la informática a esto es lo que le llamamos


programas espía (spyware). Tienen cierta similitud con los Virus pero
a diferencia de estos los spyware no tiene código dañino para
nuestros PC (por lo tanto los Anti-Virus comunes no los pueden
reconocer ni eliminar). Simplemente se dedican a utiliza nuestra
conexión de Internet para robar nuestros datos e información sobre el
contenido de nuestro PC o nuestro comportamiento. Todo ello, claro,
sin avisarnos y sin solicitar nuestro consentimiento.
¿Cómo entran en nuestras PCs?

1. Al visitar sitios de Internet que nos descargan su código malicioso


(ActiveX, JavaScripts o Cookies), sin nuestro consentimiento.

2. Acompañando algún virus o llamado por un Troyano

3. Estando ocultos en un programa gratuitos (Freeware) los cuales al


aceptar sus condiciones de uso (casi siempre en ingles y que no
leemos) estamos aceptando que cumplan sus funciones de espías.

¿Qué información nos pueden sacar?

Pueden tener acceso por ej a: Tu correo electrónico y el password,


dirección IP y DNS, teléfono, país, paginas que visitas y de que
temas te interesan, que tiempos estas en ellas y con que frecuencia
regresas, quesoftware tienes y cuales descargas, que compras haces
por internet y datos mas importantes como tutarjeta de crédito y
cuentas de banco.

¿Cuáles son los Spywares mas comunes?


CoolWebSearch, 180Solutions, Alexa, Cydoors, Gator, Web3000,
Webhancer, Look2Me, Hotbar, KaZaa, New.net, Win-eto, Lop.com,
VX2, Home Search Assistent, ISTBar, n-Case, eZula, MyWay, etc...

Listado de los mejores Antispywares

Malwarebytes' Anti-Malware
Una excelente utilidad gratuita para que busca, detecta y eliminar
todo tipo de Malware, desarrollado por la gente de MalwareBytes
(creadores de About:Buster, FileASSASSIN y otros tantos buenos
programas).

SpyBot Search & Destroy 1.6


Detecta, elimina y elimina mas de un millar de spywares y malwares,
incluye protección en tiempo real (TeaTimer) para prevenir
infecciones.

SUPERAntiSpyware Free edition


SuperAntiSpyware analiza tu sistema en busca de cualquier tipo de
amenaza que pueda colarse en tu PC.: spyware, troyanos, dialers,
rootkits, gusanos, adware, malware y cualquier otro tipo de elemento
de software malintencionado.

SpywareBlaster 4.3
Una herramienta fundamental para la prevención de ataques de
spywares. no los elimina simplemente deshabilita los controles
ActiveX de los mas conocidos spywares. Lo recomienda Spybot para
inmunizar el sistema!

Ad-Aware 2009 Free


Nueva versión de esta poderosa e indispensable herramienta
totalmente gratuita, de fácil utilización, diseñada para eliminar todo
tipo de Spywares/Adwares, con total seguridad y garantía.

Se actualiza casi semanalmente añadiendo remedio a cuanto nuevo


Spyware es detectado.

HijackThis 2.0.4
Es una pequeña herramienta que nos permite detectar y,
eventualmente, eliminar las modificaciones hechas por programas de
terceros en nuestro navegador Explorer. (Toolbars, Paginas de Inicio,
Paginas de búsqueda, etc) Hay que tener mucho cuidado con los
cambios en el Registro. Úselo bajo su responsabilidad.

Navegadores
Un navegador web , hojeador o web browser no es más que una
aplicación software que permite al usuario recuperar y visualizar
documentos de hipertexto, comúnmente descritos en Lenguaje de
Marcado de HiperTexto (HTML ó Hyper Text Markup Language),
desde servidores web de todo el mundo a través de Internet. Esta red
de documentos es denominadaWorld Wide Web (WWW) o Telaraña
Mundial. Los navegadores actuales permiten mostrar y/o ejecutar:
gráficos, secuencias de vídeo, sonido, animaciones y programas
diversos además del texto y los hipervínculos o enlaces.
La funcionalidad básica de un navegador web es permitir la
visualización de documentos de texto, posiblemente con recursos
multimedia incrustrados. Los documentos pueden estar ubicados en
la computadora en donde está el usuario, pero también pueden estar
en cualquier otro dispositivo que este conectado a la computadora del
usuario o a través de Internet, y que tenga los recursos necesarios
para la transmisión de los documentos (un software servidor web).
Tales documentos, comúnmente denominados páginas web , poseen
hipervínculos que enlazan una porción de texto o una imagen a otro
documento, normalmente relacionado con el texto o la imagen.

¿Definitivamente Chore es el mejor?


Con la llegada de Chrome el usuario final tiene una opción más para
elegir entre el amplio abanico de programas para navegar por la Web.
Aunque por tradición, pereza o falta de conocimientos los usuarios
prefieran el navegador que lleva instalado su sistema operativo
(Explorer en Windows, Safari en Mac OS X, Firefox y otros en
Linux) desde hace tiempo es habitual instalar alternativas, probarlas
y «cambiarse» de navegador al que más convenga.

Es muy fácil instalar Chrome para compararlo con los demás porque
permite conservar los datos ya existentes de otros navegadores, por
ejemplo los enlaces favoritos. Varios navegadores pueden convivir
en la misma máquina sin problemas.

La barra llamada “Omnibox” sirve para teclear las direcciones de las


páginas web, buscar palabras o revisar las webs visitadas

Google ha apostado por la simplicidad y el redimiento al crear su


navegador. La interfaz es asolutamente minimalista e incluso resulta
un poco extraña: no hay un menú tradicional y hasta la barra de
navegación es única. Llamada Omnibox, sirve para todo: teclear las
direcciones de las páginas web, buscar palabras o revisar las webs
visitadas. En cuanto a la velocidad, incorpora el motor gráfico
WebKit, considerado el más rápido, y también V8, una versión
especial de JavaScript que es tremendamente veloz. En las pruebas la
carga de páginas web convencionales es rápida, pero los servicios y
aplicaciones web modernos, muchos de la propia Google (GMail,
Google Reader, Google Maps y similares) se benefician
enormemente.
SMARTPHONE

Windows Phone, anteriormente llamado Windows Mobile es un sistema


operativo móvil compacto desarrollado por Microsoft, y diseñado para
su uso en teléfonos inteligentes (Smartphones) y otros dispositivos
móviles.
Se basa en el núcleo del sistema operativo Windows CE y cuenta con un
conjunto de aplicaciones básicas utilizando las API de Microsoft
Windows. Está diseñado para ser similar a las versiones de escritorio de
Windows estéticamente. Además, existe una gran oferta de software de
terceros disponible para Windows Mobile, la cual se puede adquirir a
través de Windows Marketplace for Mobile.
Originalmente apareció bajo el nombre de Pocket PC, como una
ramificación de desarrollo de Windows CE para equipos móviles con
capacidades limitadas. En la actualidad, la mayoría de los teléfonos con
Windows Mobile vienen con un estilete digital, que se utiliza para
introducir comandos pulsando en la pantalla. Windows Mobile ha
evolucionado y cambiado de nombre varias veces durante su desarrollo,
siendo la última versión la llamada Windows Phone 7, anunciada el 15
de febrero del 2010 y sujeta a disponibilidad a finales de 2010.

SOFTWARE LIBRE
El software libre (en inglés free software, esta denominación también se
confunde a veces con gratis por el doble sentido del inglés free en
castellano) es la denominación del software que respeta la libertad de
los usuarios sobre su producto adquirido y, por tanto, una vez obtenido
puede ser usado, copiado, estudiado, cambiado y redistribuido
libremente. Según la Free Software Foundation, el software libre se
refiere a la libertad de los usuarios para ejecutar, copiar, distribuir,
estudiar, modificar el software y distribuirlo modificado.
El software libre suele estar disponible gratuitamente, o al precio de
costo de la distribución a través de otros medios; sin embargo no es
obligatorio que sea así, por lo tanto no hay que asociar software libre a
"software gratuito" (denominado usualmente freeware), ya que,
conservando su carácter de libre, puede ser distribuido comercialmente
("software comercial"). Análogamente, el "software gratis" o "gratuito"
incluye en ocasiones el código fuente; no obstante, este tipo de software
no es libre en el mismo sentido que el software libre, a menos que se
garanticen los derechos de modificación y redistribución de dichas
versiones modificadas del programa.
Tampoco debe confundirse software libre con "software de dominio
público". Éste último es aquel software que no requiere de licencia, pues
sus derechos de explotación son para toda la humanidad, porque
pertenece a todos por igual. Cualquiera puede hacer uso de él, siempre
con fines legales y consignando su autoría original. Este software sería
aquel cuyo autor lo dona a la humanidad o cuyos derechos de autor han
expirado, tras un plazo contado desde la muerte de este, habitualmente
70 años. Si un autor condiciona su uso bajo una licencia, por muy débil
que sea, ya no es del dominio público.

COMPONENTES INTERNOS DE UNA COMPUTADORA


Escrito el 3 September, 2009 por Nemo
En el interior de un gabinete de computadora, veras cables y conectores
llendo y viniendo de un lado a otro, Una cosa que hay que recordar es que
cada computadora es distinta en cuanto a su interior se refiere. En algunas
computadoras la tarjeta de video esta integrada a la tarjeta madre
(motherboard) mientras que en otras computadoras, la tarjeta de
videopuede estar puesta en un conector PCI o AGP.
Veremos un vistazo general de los tipos de componentes internos de una
computadora. Hay que recordar que el interior de una computadora varia de
modelo a modelo.
Lista de Componentes Internos
Motherboard
CPU
BIOS
RAM
Tarjeta de Video
Tarjeta de Sonido (Opcional)
Tarjeta de Red (Opcional)
Unidades de Almacenamiento
Fuente de Poder
Motherboard

El motherboard es el corazón de la computadora. El motherboard (tarjeta


madre) contiene los conectores para conectar tarjetas adicionales (también
llamadas tarjetas de expansión por ejemplo tarjetas de video, de red,
MODEM, etc.). Típicamente el motherboard contiene el CPU, BIOS,
Memoria, interfaces para dispositivos de almacenamiento, puertos serial y
paralelo aunque estos puertos ya son menos comunes por ser tecnología
vieja ahora se utilizan mas los puertos USB, ranuras de expansión, y todos
los controladores requeridos para manejar los dispositivos periféricos
estándar, como el teclado, la pantalla de video y el dispositivo de disco
flexible.
Al comprar un motherboard es indispensable que concuerde con el tipo de
procesador que vamos a utilizar ya que los distintos procesadores utilizan
un conector diferente, por lo tanto deben de hacer juego, también hay que
asegurarse de que la velocidad del procesador y la memoria pueda ser
manejado por el motherboard. Así que cuando compres un motherboard,
procesador y memoria asegúrate de que sean compatibles entre sí.
Otro aspecto a considerar en el motherboard es que existen distintas tipos
de formas de la tarjeta madre (form-factor), que definen como se conecta el
motherboard al gabinete, losconectores para la fuente de poder y las
características eléctricas. Hay bastantes formas de motherboard disponibles
Baby AT, ATX, microATX y NLX. Hoy en día se consideran el Baby AT
y el ATX como motherboards genéricos.
No se puede poner un motherboard ATX en un Gabinete baby AT, pero si
puedes poner un motherboard baby AT y su fuente de poder en muchos
Gabinetes ATX que tienen la preparación para montar ambos tipos de
motherboard. Muchos motherboard recientes de forma baby AT traen
conectores para corriente para los dos tipos de Fuentes de poder.baby AT y
ATX. Lista de Componentes Internos.
——————————————
——————————————
CPU

Es la abreviación de las siglas en ingles de las palabras Unidad Central de


Procesamiento (central processing unit). El CPU es el cerebro de la
computadora. Algunas veces se le dice simplemente el procesador o
procesador central. El CPU es donde se realizan la mayoría de los cálculos.
En términos de poder de computación, el CPU es el elemento más
importante de un sistema de computo.
En computadoras personales y pequeños servidores, el CPU esta contenido
en una pastilla llamada microprocesador.
Dos componentes típicos del CPU son:
La unidad lógica aritmética (ALU), la cual realiza las operaciones lógicas y
matemáticas.
La unidad de control, la cual extrae instrucciones de la memoria la
decodifica y ejecuta, llamando al ALU cuando es necesario.
Actualmente hay 2 productores principales de Procesadores, Intel y AMD.
Intel tiene 2 familias de procesadores, El Celeron para los equipos menos
poderosos y el Pentium 4 para los mas poderosos con el Pentium 5 en
camino.
AMD también tiene 2 familias de productos, El Duron para los equipos
económicos y el Athlon para los mas poderosos.
Los CPU´s de Intel y AMD requieren un motherboard diseñado
especialmente para ellos. El procesador determina el tipo de motherboard
que necesitas para tu sistema.
En precio y rendimiento los CPU´s de Intel y AMD están muy parejos.
El rendimiento de un CPU generalmente se mide en ciclos de reloj por
segundo. Entre mas alto los ciclos de reloj por segundo, es mas rápido el
procesador, Aunque esto no siempre es verdad. Los procesadores AMD
corren a menos ciclos de reloj por segundo que los CPU´s de Intel, pero
siguen teniendo un rendimiento igual por el precio.
Esto se debe a que los procesadores AMD son mas eficientes por ciclo de
reloj, Los ciclos de reloj por segundo se expresan en Giga Hertz. Un
procesador que corre a 1 Giga Hertz es considerado de baja velocidad y un
procesador que corre a 3 o mas Giga Hertz se considera de alta velocidad.
Los procesadores AMD usan un sistema de calificación basado en el
rendimiento en vez de calificar solo la velocidad. Un procesador AMD
calificado a 3200+ significa que tiene un rendimiento al mismo nivel que
un CPU Pentium de 3200 MHZ o 3.2 GHZ.
Los procesadores también se califican por la velocidad a la cual se
conectan al motherboard. Esto se llama velocidad FSB (Front Side Bus).
Los procesadores de Intel pueden tener una velocidad hasta 800 MHz FSB
y el AMD hasta 400 MHz FSB. Por eso te debes de asegurar que el
motherboard soporte la velocidad FSB del procesador.
——————————————
——————————————
BIOS
Bios es un acrónimo de Basic input/output system (sistema básico de
entrada / salida). El BIOS es el software que determina que puede hacer
una computadora sin acceder programas de un disco. En las PCs, el BIOS
contiene todo el código requerido para controlar el teclado, el monitor, las
unidades de discos, las comunicaciones seriales, y otras tantas funciones.
El BIOS típicamente se pone en una pastilla ROM que viene con la
computadora (también se le llama ROM BIOS. Esto asegura que el BIOS
siempre estará disponible y no se dañara por falla en el disco. También
hace posible que la computadora inicie por sí sola. A causa de que la RAM
es más rápida que el ROM, muchos fabricantes de computadoras diseñan
sistemas en los cuales el BIOS es copiado de la ROM a la RAM cada vez
que la computadora es iniciada. Esto se conoce como shadowing.
Muchas computadoras modernas tienen Flash BIOS, que significa que el
BIOS se grabo en una pastilla de memoria flash, que puede ser actualizado
si es necesario.
——————————————
——————————————
RAM
RAM es acrónimo para random access memory (memoria de acceso
aleatorio), es un tipo de memoria que puede ser accesado aleatoriamente;
esto es, que cualquier byte de memoria puede ser accesado sin tocar los
bytes predecesores. RAM es el tipo de memoria mas común encontrado en
computadoras y otros dispositivos, como impresoras.
Hay dos tipos básicos de RAM
RAM dinámica (DRAM)
RAM estatica (SRAM)
Los 2 tipos difieren en la tecnología que utilizan para retener datos, el tipo
mas común es la RAM dinámica. La RAM Dinámica necesita refrescarse
miles de veces por segundo. La RAM estática no necesita ser refrescada, lo
cual la hace mas rápida, pero también mas cara que la RAM dinámica.
Ambos tipos de RAM son volátiles, ya que pierden su contenido cuando la
energía es apagada.
——————————————
——————————————
Tarjeta de Video
La tarjeta de video, es el componente encargado de generar la señal de
video que se manda a la pantalla de video por medio de un cable. La tarjeta
de video se encuentra normalmente en integrado al motherboard de la
computadora o en una placa de expansión. La tarjeta gráfica reúne toda la
información que debe visualizarse en pantalla y actúa como interfaz entre
el procesador y el monitor; la información es enviada a éste por la placa
luego de haberla recibido a través del sistema de buses. Una tarjeta gráfica
se compone, básicamente, de un controlador de video, de la memoria de
pantalla o RAM video, y elgenerador de caracteres, y en la actualidad
también poseen un acelerador de gráficos.
El controlador de video va leyendo a intervalos la información almacenada
en la RAM videoy la transfiere al monitor en forma de señal de video; el
número de veces por segundo que el contenido de la RAM video es leído y
transmitido al monitor en forma de señal de videose conoce como
frecuencia de refresco de la pantalla. Entonces, como ya dijimos antes, la
frecuencia depende en gran medida de la calidad de la placa de video.
——————————————
——————————————
Tarjeta de Sonido (Opcional)
- La mayoría de las tarjetas madre ahora cuentan con algún tipo de
controlador de sonido integrado. Por lo tanto, las tarjetas de sonido no son
necesarios a menos que quieras mayor fidelidad de sonido en tu
computadora o liberar un poco de carga al CPU con el control del sonido.
——————————————
——————————————
Tarjeta de RED (Opcional)
- Estar en Red ya sea Internte o una Intranet es tan comun e indispensable
que esta debería ser una característica estándar en todas las placas base.
Algunas placas base, incluso, ofrecen adaptadores de red inalámbrica
construido adentro Si la placa no tiene un conector Ethernet, puede ser
necesario instalar una tarjeta PCI Ethernet o tal vez una tarjeta inalámbrica
802.11.
——————————————
——————————————
Unidades de Almacenamiento
Refiriéndonos a varias técnicas y dispositivos para almacenar grandes
cantidades de datos. Los primeros dispositivos de almacenamiento fueron
las tarjetas perforadas, que fueron usadas desde el año 1804 en maquinas
tejedoras de ceda. Los dispositivos modernos de almacenamiento incluyen
todo tipos de unidades de disco y de unidades de cinta. Almacenamiento
masivo es distinto al de memoria, que se refiere a almacenamiento
temporal, en cambio los dispositivos de almacenamiento masivo retienen
los datos aun cuando la computadora es apagada.
Los tipos principales de dispositivos de almacenamiento masivo son:
Discos flexibles (disquetes): Relativamente lentos y pequeña capacidad,
pero muy portables, baratos y universales (casi obsoletos, las computadoras
nuevas ya no los utilizán)
Discos Duros:

rápidos y mucho mayor capacidad, pero más caros, Algunos dispositivos de


disco duro son portátiles pero la mayoría no.
Discos Ópticos: (conocidos como CDs y DVD´s) al contrario de los discos
flexibles y los discos duros, los cuales usan electromagnetismo para
codificar los datos, los sistemas de discos ópticos usan un láser para leer y
escribir datos. Los discos ópticos tienen buena capacidad, pero no son tan
rápidos como los discos duros. Y por lo general son de solo lectura, aunque
también hay reescribibles.
Cintas: Relativamente baratas y pueden tener una gran capacidad, pero no
permiten acceso aleatorio a los datos.
Discos de memoria Flash USB:

( Jumpdrives, Pocket Drives, Pen Drives, thumb drives) dispositivos muy


pequeños, ligeros y portátiles pueden almacenar hasta 2gb de datos estos
dispositivos se han vuelto muy populares y están sustituyendo a los discos
flexibles al tener mayor capacidad y velocidad, estos dispositivos pueden
mantener la información hasta por 10 años.
——————————————
——————————————
Fuente de Poder

La fuente de poder es el componente que proporciona el poder eléctrico a la


computadora. La mayoría de las computadoras pueden conectarse a un
enchufe eléctrico estándar. La fuente de poder jala la cantidad requerida de
electricidad y la convierte la corriente AC a corriente DC. También regula
el voltaje para eliminar picos y crestas comunes en la mayoría de los
sistemas eléctricos. Pero no todas las fuentes de poder, realizan el regulado
de voltaje adecuadamente, así que una computadora siempre esta
susceptible a fluctuaciones de voltaje.
Las fuentes de poder se califican en términos de los watts que generan.
Entre más poderosa sea la computadora, mayor cantidad de watts necesitan
sus componentes.

Microprocesador
Uno de los actuales microprocesadores de 64 bits y doble núcleo, un AMD
Athlon 64 X2 3600.
Desde el punto de vista funcional, un microprocesador es un circuito
integrado que incorpora en su interior una unidad central de proceso (CPU)
y todo un conjunto de elementos lógicos que permiten enlazar otros
dispositivos como memorias y puertos de entrada y salida (I/O), formando
un sistema completo para cumplir con una aplicación específica dentro del
mundo real. Para que el sistema pueda realizar su labor debe ejecutar paso
a paso un programa que consiste en una secuencia de números binarios o
instrucciones, almacenándolas en uno o más elementos de memoria,
generalmente externos al mismo. La aplicación más importante de los
microprocesadores que cambió totalmente la forma de trabajar, ha sido la
computadora personal, ordenador o microcomputadora.
El microprocesador o simplemente procesador, es el circuito integrado más
importante, de tal modo, que se le considera el cerebro de una
computadora. Está constituido por millones de transistores integrados.
Puede definirse como chip, un tipo de componente electrónico en cuyo
interior existen miles o en ocasiones millones, según su complejidad, de
elementos llamados transistores cuyas interacciones permiten realizar las
labores o funciones que tenga encomendado el chip.
Así mismo, es la parte de la computadora diseñada para llevar a cabo o
ejecutar los programas. Éste ejecuta instrucciones que se le dan a la
computadora a muy bajo nivel realizando operaciones lógicas simples,
como sumar, restar, multiplicar o dividir. Se ubica generalmente en un
zócalo específico en la placa o tarjeta madre y dispone para su correcto y
estable funcionamiento de un sistema de refrigeración (generalmente de un
ventilador montado sobre un disipador de metal termicamente muy
conductor).
Lógicamente funciona como la unidad central de procesos (CPU/Central
Procesing Unit), que está constituida por registros, la unidad de control y la
unidad aritmético-lógica principalmente. En el microprocesador se
procesan todas las acciones de la computadora.
Su "velocidad" se determina por la cantidad de operaciones por ciclo que
puede realizar y los ciclos por segundo que desarrolla: también denominada
frecuencia de reloj. La frecuencia de reloj se mide Hertzios, pero dado su
elevado número se utilizan los múltiplos megahertzio o gigahertzio
Una computadora personal o más avanzada puede estar soportada por uno o
varios microprocesadores, y un microprocesador puede soportar una o
varias terminales (redes). Un núcleo suele referirse a una porción del
procesador que realiza todas las actividades de una CPU real.
La tendencia de los últimos años ha sido la de integrar múltiples núcleos
dentro de un mismo encapsulado, además de componentes como memorias
caché, controladoras de memoria e inclusounidades de procesamiento
gráfico; elementos que anteriormente estaban montados sobre la placa base
como dispositivos individuales.

• 2004: ATHLON 64

El AMD Athlon 64 es un microprocesador x86 de octava generación


que implementa el conjunto de instrucciones AMD64, que fueron
introducidas con el procesador Opteron. El Athlon 64 presenta un
controlador de memoria en el propio circuito integrado del
microprocesador y otras mejoras de arquitectura que le dan un mejor
rendimiento que los anteriores Athlon y Athlon XP funcionando a la
misma velocidad, incluso ejecutando código heredado de 32 bits.El
Athlon 64 también presenta una tecnología de reducción de la velocidad
del procesador llamada Cool'n'Quiet,. Cuando el usuario está
ejecutando aplicaciones que requieren poco uso del procesador, la
velocidad del mismo y su tensión se reducen.

• 2006: INTEL CORE Y CORE 2 DUO

Intel lanzó ésta gama de procesadores de doble núcleo y CPUs 2x2


MCM (Módulo Multi-Chip) de cuatro núcleos con el conjunto de
instrucciones x86-64, basado en el la nueva arquitectura Core de Intel.
La microarquitectura Core regresó a velocidades de CPU bajas y
mejoró el uso del procesador de ambos ciclos de velocidad y energía
comparados con anteriores NetBurst de los CPUs Pentium 4/D2 La
microarquitectura Core provee etapas de decodificación, unidades de
ejecución, caché y buses más eficientes, reduciendo el consumo de
energía de CPUs Core 2, mientras se incrementa la capacidad de
procesamiento. Los CPUs de Intel han variado muy bruscamente en
consumo de energía de acuerdo a velocidad de procesador, arquitectura
y procesos de semiconductor, mostrado en las tablas de disipación de
energía del CPU. Esta gama de procesadores fueron fabricados de 65 a
45 nanómetros.

• 2007: AMD PHENOM

Phenom fue el nombre dado por Advanced Micro Devices (AMD) a la


primera generación de procesadores de tres y cuatro núcleos basados en
la microarquitectura K10. Como característica común todos los Phenom
tienen tecnología de 65 nanómetros lograda a través de tecnología de
fabricación Silicon on insulator (SOI). No obstante, Intel, ya se
encontraba fabricando mediante la más avanzada tecnología de proceso
de 45 nm en 2008. Los procesadores Phenom están diseñados para
facilitar el uso inteligente de energía y recursos del sistema, listos para
la virtualización, generando un óptimo rendimiento por vatio. Todas las
CPUs Phenom poseen características como controlador de memoria
DDR2 integrado, tecnología HyperTransport y unidades de coma
flotantede 128 bits, para incrementar la velocidad y el rendimiento de
los cálculos de coma flotante. La arquitectura Direct Connect asegura
que los cuatro núcleos tengan un óptimo acceso al controlador
integrado de memoria, logrando un ancho de banda de 16 Gb/s para
intercomunicación de los núcleos del microprocesador y la tecnología
HyperTransport, de manera que las escalas de rendimiento mejoren con
el número de núcleos. Tiene caché L3 compartida para un acceso más
rápido a los datos (y así no depender tanto de la propia latencia de la
RAM), además de compatibilidad de infraestructura de los socket AM2,
AM2+ y AM3 para permitir un camino de actualización sin sobresaltos.
A pesar de todo, no llegaron a igualar el rendimiento de la serie Core 2
Duo.

• 2008: INTEL CORE NEHALEM

Intel Core i7 es una familia de procesadores de cuatro núcleos de la


arquitectura Intel x86-64. Los Core i7 son los primeros procesadores
que usan la microarquitectura Nehalem de Intel y es el sucesor de la
familia Intel Core 2. FSB es reemplazado por la interfaz QuickPath en
i7 e i5 (socket 1366), y sustituido a su vez en i7, i5 e i3 (socket 1156)
por el DMI eliminado el northBrige e implementando puertos PCI
Express directamente. Memoria de tres canales (ancho de datos de 192
bits): cada canal puede soportar una o dos memorias DIMM DDR3. Las
placa base compatibles con Core i7 tienen cuatro (3+1) o seis ranuras
DIMM en lugar de dos o cuatro, y las DIMMs deben ser instaladas en
grupos de tres, no dos. El Hyperthreading fue reimplementado creando
nucleos lógicos. Está fabricado a arquitecturas de 45 nm y 32 nm y
posee 731 millones de transistores su versión más potente. Se volvió a
usar frecuencias altas, aunque a contrapartida los consumos se
dispararon.

• 2008: AMD PHENOM II Y ATHLON II

Phenom II es el nombre dado por AMD a una familia de


microprocesadores o CPUs multinúcleo (multicore) fabricados en 45
nm, la cual sucede al Phenom original y dieron soporte a DDR3. Una de
las ventajas del paso de los 65 nm a los 45 nm, es que permitió
aumentar la cantidad de cache L3. De hecho, ésta se incrementó de una
manera generosa, pasando de los 2 MB del Phenom original a 6 MB.

• 2010: INTEL CORE SANDY BRIDGE

Los próximos procesadores de Intel de la familia core

• 2011: AMD BULLDOZER

Los próximos procesadores de AMD de la familia Fusion

Tipos de Computadoras
Dentro de la evolución de las computadoras, han surgido diferentes
equipos con diferentes tamaños y características según su tipo de labor.
Los computadores son utilizados desde las plantas nucleares como
controladores de labores de alto riesgo hasta la simple tarea de calentar
la comida con el microondas.
Supercomputadoras ("paralelas")
Diseñadas para aplicaciones científicas, procesos complejos. Son los
sistemas más grandes, rápidos y costosos del mundo de las
computadoras.

Una supercomputadora es la computadora más potente disponible en un


momento dado. Estas máquinas están construidas para procesar enormes
cantidades de información en forma muy rápida. Las
supercomputadoras pueden costar desde 10 millones hasta 30 millones
de dólares, y consumen energía eléctrica suficiente para alimentar 100
hogares.
Macrocomputadoras “Mainframe”
Son sistemas que ofrecen mayor velocidad en el procesamiento y mayor
capacidad de almacenaje que una mini computadora típica.
La computadora de mayor tamaño en uso común es el
macrocomputadora. Las Macrocomputadoras (mainframe) están
diseñadas para manejar grandes cantidades de entrada, salida y
almacenamiento.
Minicomputadoras
Al igual que las micros son de propósitos generales, pero mayormente
son más poderosas y más costosas que las micros. En tamaño varían de
un modelo de escritorio a una unidad del grande de un archivo.
La mejor manera de explicar las capacidades de una Minicomputadora
es diciendo que están en alguna parte entre las de una
macrocomputadora o mainframe y las de las computadoras personales.
Al igual que las Macrocomputadoras, las Minicomputadoras pueden
manejar una cantidad mucho mayor de entradas y salidas que una
computadora personal. Aunque algunas minis están diseñadas para un
solo usuario, muchas pueden manejar docenas o inclusive cientos de
terminales.
. Estaciones de Trabajo ("Workstation")
Diseñados para apoyar una red de computadoras, permitiendo a los
usuarios el compartir archivos, programas de aplicaciones y hardware",
como por ejemplo las impresoras.
Entre las Minicomputadoras y las microcomputadoras (en términos de
potencia de procesamiento) existe una clase de computadoras conocidas
como estaciones de trabajo.Una estación de trabajo se ve como una
computadora personal y generalmente es usada por una sola persona, al
igual que una computadora. Aunque las estaciones de trabajo son más
poderosas que la computadora personal promedio. Las estaciones de
trabajo tienen una gran diferencia con sus primas las
microcomputadoras en dos áreas principales. Internamente, las
estaciones de trabajo están construidas en forma diferente que las
microcomputadoras. Están basadas generalmente en otra filosofía de
diseño de CPU llamada procesador de cómputo con un conjunto
reducido de instrucciones (RISC), que deriva en un procesamiento más
rápido de las instrucciones.
e. Microcomputadoras
Son sistemas pequeños de propósitos generales. Pero pueden ejecutar
las mismas operaciones y usar las mismas instrucciones de muchos
sistemas grandes.
Estas pequeñas computadoras se
encuentran comúnmente en
oficinas, salones de clase y hogares. Las
computadoras personales vienen en
todas formas y tamaños.Modelos de
escritorio El estilo de computadora
personal más común es también el
que se introdujo primero: el modelo
de escritorio. Computadoras
notebook Las computadoras
notebook, como su nombre lo indica, se
aproximan a la forma de una agenda. Las Laptop son las predecesoras
de las computadoras notebook y son ligeramente más grandes que éstas.
Asistentes personales digitales Los asistentes personales digitales (PDA)
son las computadoras portátiles más pequeñas.
Las PDA también llamadas a veces palmtops, son mucho menos
poderosas que los modelos notebook y de escritorio. Se usan
generalmente para aplicaciones especiales, como crear pequeñas hojas
de cálculo, desplegar números telefónicos y direcciones importantes, o
para llevar el registro de fechas y agenda. Muchas pueden conectarse a
computadoras más grandes para intercambiar datos.
Tipos de Microcomputadoras:
Hand-held
Palmtop
Notebook
Laptop
Pen computers
PDA ("personal digital assistant")
Desktop
Tower

MEJOR COMPUTADORA PARA JUGAR

En el caso de ser un amante de los videojuegos online por computadora una


opción que se debe abarajar es la de adquirir una Aurora Alienware,
propiedad de la marca Dell, PC que tiene un mayor apartado con relación al
manejo de gráficos, aunque bien vale decir que en términos generales
resultan muy poderosas para todo tipo de actividad. Poseen un procesador
Intel Core i7 con cuatro núcleos y aceleración de hasta 3.6 GHz, esto las
vuelve favorables para el cumplimiento de varias tareas al mismo tiempo
sin ralentizar el servicio. Entre otras características hallamos 8MB de
memoria cache, hasta 24 GB en Memoria Ram y un decodificador de video
unificado ATI para una alta definición.
NETBOOKS

Ofrecen conectividad inalámbrica (Wi-Fi), rasgo fundamental para su uso.


Dependiendo de los fabricantes y sus modelos, la mayoría ofrece 1 GB de
RAM, y algunas cuentan con cámaras web y micrófono incorporados,
distintas cantidades de puertos USB, conexión Bluetooth, lectores
multiformato de tarjetas flash y hasta salidas para conectarles un monitor
externo.

Sistemas operativos: los 5 mejores sistemas operativos para netbooks son


Jolicloud, Windows 7, Ubuntu Netbook Remix, Mac OS X y Linux Mint

MEJORES NETBOOKS PARA COMPRAR:

Acer Aspire One 532h-2326: cuenta con una pantalla de 10,1 pulgadas con
una resolución de hasta 1.024 x 600 pixeles. Además, integra un
procesador Intel Atom N450 a 1,66 GHz, 1GB de memoria RAM, un disco
duro de 250GB, y un chipset Intel NM10. También cuenta con 802.11b/g/n
Wi-Fi, una cámara web integrada y micrófono, y touchpad multigesture. Se
ejecuta sobre Windows 7 Starter.

ASUS Eee PC 1001P-MU17: pantalla de 10,1 pulgadas, un procesador


Intel Atom N450 a 1.66 GHz con una GPU integrada 3150, 1 GB de
memoria RAM DDR2 y un disco duro de 160 GB. Los puertos son también
típicos de una netbook: tres puertos USB, uno VGA, uno de CA, Ethernet
10/100, una sola ranura SDHC, además de audio in / out y un puerto de
seguridad Kensington. También cuenta con una tecnología Express Gate
desarrollada por ASUS, introducida en sus placas madre P5E3, que utiliza
Splastop, un entorno reducido de Linux que está integrado a la placa
madre.

ASUS Eee PC 1201N: posee una pantalla WXGA de 12,1 pulgadas


retroiluminada por LED y con una resolución de hasta 1.366 x 768 pixeles.
Ofrece tecnología NVIDIA ION de procesamiento de gráficos que
proporciona una experiencia multimedia superior incluyendo soporte para
video HD y juegos para PC. NVIDIA CUDA mejora aún más la capacidad
de la Eee PC 1201N de trabajar con el contenido visual, lo que acelera las
tareas intensas del procesador como la edición de vídeo y la conversión.

También viene con ArcSoft SimHD preinstalado, que incrementa el


contenido estándar de definición de vídeo a alta definición. SimHD mejora
enormemente la calidad de las imágenes y soporta una amplia gama de
formatos de archivo. Los usuarios pueden disfrutar de una experiencia de
alta definición de vídeo sin problemas en la pantalla de 12,1 de alta
definición, o tener la opción de disfrutar de vídeo de 1080p HD con
verdadera fidelidad de audio.
Esta netbook integra un procesador Intel Atom 330 Dual Core y gráficos
NVIDIA ION. Además, posee un disco duro de 320GB y viene con
Windows 7 Home Premium preinstalado.

Gateway LT2118u: cuenta con una pantalla WSVGA de 10,1 pulgadas


retroiluminada por LED con una resolución de hasta 1.024 x 600 píxeles.
Integra un procesador Intel Atom N450 a 1.66 GHz y 1GB de memoria
RAM DDR2, disco duro SATA de 250 GB y acelerador de gráficos Intel
Media Accelerator 3150. La Gateway LT2118u brinda una autonomía
llegando a las 11 horas y 17 minutos por carga.

Gateway LT2120u: posee una pantalla WSVGA de 10,1 pulgadas


retroiluminada por LED con una resolución de hasta 1.024 x 600 pixeles.
Integra un procesador Intel Atom N450 a 1.66 GHz, una GPU 3150, 1 GB
de memoria RAM y un disco duro SATA de 250 GB. Viene con Windows
7 Starter preinstalado.
En cuanto a su batería, duró unas 9 horas y 40 minutos en las pruebas
Este equipo también tiene un puerto de seguridad Kensington en el borde
derecho, así como una ranura SD para cargar y guardar archivos.

HP Mini 5102: fue elegida en Las Mejores Netbooks como el mejor equipo
para los usuarios de negocios. Es la última en línea de HP de negocios para
netbooks, con un chasis de metal solido y elementos de diseño a medida
para el viajero de oficina. Cuenta con una pantalla táctil de 10,1 pulgadas,
2GB de memoria RAM, un procesador Intel Atom N450 y una batería
extendida de seis celdas.

Lenovo IdeaPad S10-3: cuenta con una pantalla de 10,1 pulgadas


retroiluminada por LED con una resolución de hasta 1.024 x 600 pixeles.
Integra un procesador Intel Atom N455 a 1.66GHz, hasta 2 GB de memoria
RAM, Intel Graphics Media Accelerator 3150, disco duro de 250GB (5400
rpm), tres puertos USB 2.0, lector de tarjetas 5-en-1, VGA y protección
APS contra caídas. Pesa 1,25 Kg, corre sobre Windows 7 Starter.

Lenovo ThinkPad X100e: pantalla de alta resolución de 11,6 pulgadas, un


teclado espacioso y un disco duro más grande que el de la mayoría de las
laptops. Es un poco más pesada que las netbooks y tiene duración de la
batería limitada. Procesador AMD Turion Neo X2 Dual-Core L625 a 1.6
GHz y 2 GB de memoria RAM, cuenta con una tarjeta gráfica AMD
M780G ATI Radeon HD 3200 y 320 GB de disco duro.
Samsung N210: no es muy bueno para la reproducción de vídeo pero tiene
altavoces bastante decentes. Cuenta con una funcion de encendido rápido
que permite conectarse a internet sin tener que esperar a que Windows se
inicie. También cuenta con una pantalla mate WSVGA de 10,1 pulgadas
con retroiluminación LED y resolución de hasta 1.024 x 600 pixeles,
procesador Intel Atom N450 a 1,66 GHz, 1GB de memoria RAM, un disco
duro de 250GB, y se ejecuta sobre Windows 7 Starter. Tiene gráficos Intel
GMA3150, Wi-Fi 802.11b/g/n, Bluetooth y una webcam integrada y
micrófono.

Toshiba mini NB305-N310: cuenta con una pantalla WSVGA de 10,1


pulgadas retroiluminada por LED y con una resolución de hasta 1.024 x
600 pixeles. Integra un procesador Intel Atom N450 de 1,66 GHz con
procesador gráfico integrado GMA3150, un disco duro de 160 GB y 1 GB
de memoria RAM. Se ha construido en combinación Webcam y micrófono,
Wi-Fi 802.11b/g/n (pero no Bluetooth). Este netbook pesa 1,3 Kg, viene
con Windows XP preinstalado y se puede actualizar a Windows 7.

Notebooks

 Funcionan empleando una batería o un adaptador que permite tanto


cargar la batería como dar suministro de energía.

 Poseen una batería en caso de falta de energía.

 Suelen tener menos potencia que las computadoras de escritorio,


menor capacidad en los discos duros, menos poder de video y audio, y
menor potencia en los microprocesadores.

 Suelen consumir menos energía y son más silenciosas.

 Suelen contar con una pantalla LCD y un touchpad.

 Cuentan con Tarjeta PC (antiguamente PCMCIA) o ExpressCard para


tarjetas de expansión.

Sistemas operativos para notebooks


 Ubunt

 SUSE

 Linux

 Red Hat

 IBM

 Microsoft Vista

 Novell

 Canonical

 Windows XP

Mejores notebooks para comprar


Toshiba Satellite T235-S1350: pantalla de 13,3” y un procesador de bajo
consumo de Intel (Pentium U5400 a 1,2GHz), la Toshiba de 1,7 kilos posee
4GB de RAM, disco de 320GB, Windows 7 Home Premium, salida HDMI,
lector de tarjetas 4 en 1 y puertos USB. No posee unidad óptica y entrega
una autonomía de 8 horas. Tiene gráficos integrados con una Intel GMA.

Acer TimelineX AS5820T-5951: posee una pantalla de 15,6” y un


procesador Intel Core i3 M350 de 2,27GHz. Se complementa con Windows
7 Home Premium, 4GB de RAM, disco de 320GB y unidad de DVD. Su
batería entrega una autonomía de 7 horas y media. Su peso es de 2,35 kilos.
Sus gráficos son integrados (Intel GMA HD), ideal para ver contenidos en
alta definición y jugar algunos video juegos que no requieran mucho
procesamiento.

Samsung R540-11: tiene una pantalla de 15,6” y un Intel Core i5 450M de


2,4GHz en su interior. Se complementa con un 4GB de RAM y una ATI
Mobility Radeon 545v. Agrega Windows 7 Home Premium, un peso de
2,35 kilos, disco de 500GB y unidad de Blu-ray. La autonomía de la
batería es de 3 horas.

Asus U45Jc-A1: con una pantalla de 14” y un procesador Intel Core i3-
370M de 2,4GHz. Conjuga 4GB de RAM con gráficos Intel GMA HD con
una NVIDIA GeForce 310M, lo que permite consumir contenido en alta
definición, editar videos y jugar video juegos que no requieran demasiado
sacrificio de la placa. Pesa 2,1 kilos, tiene un disco de 500GB y unidad de
DVD. Viene con Windows 7 Home Premium y ofrece una autonomía de 9
horas y media.

HP Pavilion dv7-4083cl: tiene una pantalla de 17,3” y viene con Windows


7 Home Premium, un Intel Core i5-450M de 2,4GHz, 4GB de RAM, ATI
Mobility Radeon 4570, disco de 500GB y unidad de Blu-ray. Con esas
características es posible jugar video juegos sin problemas. La autonomía
es de 4 horas y 45 minutos y su peso es de 3,17 kilos.

Lenovo ThinkPad T410s: posee una pantalla de 14,1”, Windows 7


Professional, Intel Core i5-520M de 2,4GHz, 4GB de RAM, disco de
250GB y unidad de DVD. Su peso es de 1,7 kilos. Posee un slot dual para
ExpressCard y tarjetas, 3G, bluetooth y dos puertos USB. La autonomía de
su batería es de 4 horas.

Dell Latitude E5510: tiene una pantalla de 15,6”, Windows 7 Premium


Edition, Intel Core i5-520M de 2,4GHz, 4GB de RAM, disco de 320GB y
unidad de DVD. Su peso asciende a 2,76 kilos. Omite la presencia de
HDMI y eSATA. La autonomía que ofrece su batería llega a 7 horas.

HP Envy 14: peso de 2,35 kilos, demasiado para una notebook, con
pantalla de 14,5” de completas características. Se complementa con
Windows 7 Home Premium, Intel Core i5-450M de 2,4GHz, ATI Mobility
Raderon 5650, disco de 500GB y unidad de DVD. La HP Envy 14 es una
buena opción para juegos y uso multimedia. La batería entrega una
autonomía de 4 horas.

Gateway ID49C07u: tiene una pantalla de 14”, Windows 7 Home


Premium, Intel Core i3-M350 de 2,27GHz, 4GB de RAM, disco de 500GB,
unidad de DVD y cuatro puertos USB. Falla por el lado del teclado,
demasiado flexible, y por su touchpad, ruidoso al utilizarlo. Pero compensa
con la buena performance del equipo y la duración de la batería: 5 horas y
media. Pesa 2,13 kilos.

Toshiba Portégé R705-25: pantalla de 13,3”. Se caracteriza por su fino


diseño en metal y la presencia de una unidad de DVD. Viene con Windows
7 Home Premium, un Intel Core i3-M350 de 2,27GHz, 4GB de RAM,
disco de 500GB, HDMI y un peso de apenas 1,4 kilos. Viene con la opción
de emplear la tecnología Wi-Di de Intel. La autonomía de la batería es de 6
horas y 20 minutos
HTML5

HTML 5 (HyperText Markup Language, versión 5) es la quinta revisión


importante del lenguaje básico de la World Wide Web, HTML. HTML 5
especifica dos variantes de sintaxis para HTML: un «clásico» HTML
(text/html), la variante conocida como HTML5 y una variante XHTML
conocida como sintaxis XHTML5 que deberá ser servida como XML
(XHTML) (application/xhtml+xml). Esta es la primera vez que HTML y
XHTML se han desarrollado en paralelo.

HTML 5 es una tecnología creada para modernizar la web y el desarrollo


de aplicaciones web, online y offline, que aun tiene bastante camino por
recorrer para ser una realidad.

Por qué se crea HTML 5

Los que nos dedicamos a hacer páginas web sabemos que un sitio web es
como un puzzle de tecnologías que operan entre si. Para hacer una página,
en principio, se necesita simplemente HTML, pero esta afirmación hoy
tiene poco que ver con la realidad y las necesidades de los desarrolladores
para crear una rica experiencia de usuario.

Es que hoy pocos sitios web se basan únicamente en HTML. Quien más
quien menos utiliza CSS para definir el aspecto de la página, algún tipo de
script del lado del cliente, en Javascript, vídeos en diversos formatos o
Flash para realizar alguna animación o interacción con el usuario. Para
poder beneficiarse e integrar todas estas tecnologías, existen multitud de
etiquetas que se han ido creando al paso, según se iban necesitando, y las
cuales no han pasado por el filtro de los normalizadores de tecnologías
como el W3C.

Por tanto, más de 10 años después que se publicase la última especificación


del HTML, resulta primordial para el futuro de la web la creación de un
nuevo estándar que recoja y solucione de alguna manera, las necesidades
de los desarrolladores que se han ido creando a lo largo de todo este
tiempo.
ELEGIR UNA MEJOR IMPRESORA
Todas las impresoras de chorro de tinta actualmente en el mercado
afirman ser capaces de imprimir sus fotos digitales. Y esto no es
del todo infundado. Pero el hecho es que una impresora de chorro
de tinta diseñada específicamente para imprimir fotografías da
mejores resultados imprimiendo fotos que una impresora que
cumple una doble o triple tarea como impresora de textos y
también de gráficas de negocios.

La razón estriba en que las impresoras han sido diseñadas


específicamente para enfrentar la enorme tarea de tratar la miríada
de gradaciones y tonalidades que demanda una fotografía. Es por
esto que las impresoras de color de chorro de tinta de uso general
tienden a tener a lo más sólo cuatro cartuchos separados de tinta -
o un solo cartucho con varios colores - mientras las impresoras
fotográficas tienen ocho o más cartuchos separados.

Los colores adicionales de tinta suelen incluir tonalidades suaves


de magenta y cyan, y pueden incluir diversos tipos de negro para
permitir la impresión de bellísimas fotos en blanco y negro en
diferentes tipos de papel. De manera que, si usted sólo imprime
sus fotos ocasionalmente y tampoco es demasiado exigente en
cuanto a la calidad de sus fotos impresas, una impresora de chorro
de tinta a color para todo uso puede bastarle. Pero si espera
imprimir fotos que rivalicen o aún excedan en calidad a las que
obtiene del laboratorio de procesamiento, lo que necesita es una
impresora fotográfica especializada.

- Longevidad

La mayoría de nosotros quiere que nuestras fotos sigan luciendo


dentro de cinco años tan bien como el día en que fueron hechas.
Lamentablemente, las fotos a color de impresoras de chorro de
tinta suelen sufrir de descoloración prematura. Estos problemas
han sido corregidos recientemente en diversos grados por los
principales fabricantes de impresoras fotográficas y de tintas -
especialmente Epson - y actualmente puede usted adquirir
impresoras que usan tintas diseñadas para dar impresiones que
pueden durar hasta 200 años sin descolorarse.

Por supuesto, puesto que estas tintas han sido desarrolladas sólo
recientemente, nadie puede en realidad verificar la afirmación de
que las impresiones durarán 200 años sin que su color pierda en
brillantez. No obstante, las tintas en cuestión han sido sometidas a
numerosas simulaciones, y es razonable asumir que las
impresiones hechas con las nuevas tintas de alta longevidad no
sufrirán de rápida descoloración o desteñimiento.

- Costo

La buena noticia sobre impresoras fotográficas especializadas es


que inicialmente no costarán una fortuna. Por ahora es
relativamente bien sabido que los fabricantes de impresoras de
chorro de tinta hacen sus principales ganancias con los
consumibles - es decir, con la tinta y el papel - y la cosa tampoco
cambiará con las impresoras fotográficas. Pero, a mucha distancia,
el mayor costo asociado con las impresoras fotográficas es
representado por la tinta. Con el tiempo, el costo de los cartuchos
de tinta de reemplazo acabará por superar con mucho lo que usted
pagó por la impresora misma.

En general, mientras menos pague hoy por una impresora


fotográfica especializada, más pagará más tarde por los cartuchos
de tinta de reemplazo. Esto es porque las impresoras fotográficas
más baratas en el mercado suelen usar cartuchos de tinta más
pequeños. Impresoras que usan cartuchos más grandes - tales
como la Canon Pixma o la Epson 3800 - cuestan más al comienzo,
pero a la larga acaban ahorrándole dinero. Impresoras que vienen
con cartuchos de tinta más grandes ofrecen asimismo una mayor
flexibilidad - tal como un cuerpo mayor que acepta papeles de
mayor tamaño - pero, por el contrario, requieren más espacio en el
escritorio. Así, pues, antes de comprar piense cuidadosamente con
qué frecuencia querrá imprimir.

- Calidad

Quizás piense usted que la calidad de la imagen debería ser su


principal consideración al buscar una impresora fotográfica. Pero,
de hecho, la calidad de la imagen no depende únicamente de la
impresora. El papel que use, la tinta y el que usted trabaje en un
entorno de computación de alto perfil tienen mucho que ver con la
calidad con que salgan sus fotografías digitales.

El perfil es especialmente importante - y algo en lo cual muy


pocas personas invierten. Básicamente, el perfil implica usar
equipo especial que le permita ajustar su pantalla y su impresora
de tal modo que ambas estén hablando el mismo lenguaje a la
hora de reproducir el color. En un entorno sin perfilar, tal como el
que tiene la mayoría de las personas, una determinada sombra de
azul, por ejemplo, aparecerá de una forma en la pantalla y luego
ligeramente diferente al ser impresa.

Herramientas tales como EyeOne de X-Rite y PrintFIX Pro de


ColourVision vienen con recursos que primero le permitirán
calibrar la pantalla para luego crear perfiles personalizados -
básicamente, ficheros de computación - que su impresora puede
emplear para asegurarse de que lo que usted ve en su pantalla es
lo mismo que sale por la impresora.

Con perfiles bien hechos puede usted lograr una buena calidad de
imagen de la mayoría de las impresoras fotográficas actualmente
en el mercado. En materia de equipo de perfilar - y para obtener
buen color en general - es importante usar las tintas hechas por el
fabricante de la impresora y mantenerse en unos pocos papeles
fotográficos para los cuales haya creado ya perfiles.
Empresas que nacieron en un garaje

Resulta curioso que varias de las empresas más importantes


actualmente surgieran en un garaje. Microsoft, Apple, HP, Google
y Youtube tienen este origen en común . Todas estas grandes
compañías comparten este lugar de nacimiento tan poco
espectacular, si bien tienen historias muy diferentes.
- HP: En 1905 se construyó una casa en la Avenida Addison, en
Palo Alto, California , que posteriormente fue dividida en dos
viviendas. En 1918 se construyó un garaje anexo que luego sería
la primera sede de HP.
William Reddington Hewlett y David Packard se conocieron en la
Universidad de Stanford. Tras adquirir experiencia por separado
decidieron montar su empresa en el garaje de esta propiedad, que
pertenecía a una señora que recientemente había enviudado. Los
jóvenes Hewlett y Packard se fueron a vivir a la casa aledaña
aunque por separado, ya que Dave estaba casado. Con un capital
inicial de 538 dólares empezaron a trabajar en un osciloscopio, el
primer producto de la empresa, en 1938. En sus inicios el garaje
disponía tan solo de una mesa y un archivador. Con el paso del
tiempo y debido al éxito del negocio se mudaron a otro lugar y la
casa original fue nuevamente dividida, pasando a distintos
propietarios. Ya en 1984 la empresa HP decidió que ese garaje
formaba parte de su historia y trato de conseguir que fuera
considerado edificio histórico de Palo Alto, cosa que consiguieron
en 1985. En 1989 al fin lograron que se le diera categoría de lugar
histórico de California, añadiéndose una roca con una placa de
bronce que indicaba a esa propiedad como el lugar de nacimiento
de Silicon Valley. Al año siguiente HP compró la propiedad y en
2005 terminaron su restauración.

- Microsoft: Paul Allen y William Henry Gates III se conocieron en la


escuela privada de Lakeside. Esta institución fue de las primeras en poseer
un ordenador a disposición de los alumnos a finales de los años 70. Bill
Gates era casi el único que se acercaba a aquella PDP-10, donde pasaba
mucho tiempo. Fruto de esta afición contactó con Paul que aunque era dos
años mayor también se había hecho un adicto a la informática. En 1969
Paul, Bill y dos estudiantes más formaron una empresa que en cierta forma
sería el germen para el nacimiento de “ Micro-soft” ( al principio con
guión) en 1975. Los comienzos de esta relación comercial entre Paul Allen
y Bill Gates se produjeron en el garaje familiar de los Gate.
- Apple: La historia de Apple enlaza con la de HP desde sus
comienzos. Surgió también en California, esta vez en el 2066 de
Crist Drive, Los Altos. Un chico de 12 años llamado Steve Jobs
llamó a William Hewlett por teléfono para decirle que estaba
construyendo un aparato eléctrico. Durante esta charla que duró
20 minutos Jobs consiguió las piezas que necesitaba para terminar
su proyecto y un trabajo de verano en HP.

Unos años después Steve conoció a Stephen Wozniak, un joven con mucho
talento que a los 13 años había construido una sofisticada calculadora.
Ambos muchachos fueron cruzándose profesionalmente durante un tiempo.
En 1975 Wozniak había mejorado su calculadora hasta transformarla casi
en el primer ordenador personal y fue con su proyecto a HP, donde trabajó
de ingeniero y a Atari, la empresa donde estaba Steve Jobs en esos
momentos. Ambas rechazaron el concepto que les ofrecían y los dos chicos
fundaron una empresa juntos. Comenzaron, como no, en el garaje de la
familia de Jobs, cuyo padre tuvo que sacar sus herramientas para restaurar
coches y amueblar el taller con una enorme mesa de madera, donde se
manufacturaron los primeros equipos de Apple.
- Youtube: Chad Hurley y Steve Chen fueron en 2005 a una fiesta
del día de San Valentín que se celebraba en California. Allí se
encontraron con mucho personal de la empresa Paypal, donde
ellos habían trabajado y se habían conocido. El encargado de
hacer el video de la fiesta se estuvo quejando de lo difícil que era
luego compartir las imágenes con el resto de la gente a través de
Internet. Chad y Steve pillaron al vuelo la idea y junto a Jawed
Karim, otro informático se pusieron a trabajar en un sitio web que
permitiera subir y compartir vídeos fácilmente. Para ello se
encerraron en el garaje de la casa de Hurley, en San Francisco
donde se originó lo que luego ha sido uno de los negocios más
rentables de la red.
- Google: En la universidad de Standford, muy cerca de la ya
mítica ciudad de Palo Alto, se conocieron los que serían los
creadores del buscador que casi seguro utilizas, Google. Larry
Page, uno de sus fundadores, estaba enganchado a la informática
desde los 6 años. En la universidad había construido incluso una
impresora con piezas de Lego. Allí se encontró con Sergey Brin,
otro chico de su edad ( poco más de 20 años) y a partir de los
proyectos que cada uno tenía comenzaron a trabajar en un
buscador. Su progresos fueron relativamente rápidos y en 1996
tenían en marcha “Backrub”, que en 1997 se convertiría en
Google, nombre que viene por su parecido fonético con la palabra
“googol” que a su vez significa 10 elevado a 100, en clara alusión
al algoritmo tan complejo que habían creado.

Realmente el primer lugar donde desarrollaron su actividad plenamente fue


en la habitación de Larry Page aunque luego se trasladaron a un garaje para
tener una sede social y poder cobrar un cheque que les habían dado para
seguir trabajando a nombre de “ Google Inc.”. Para ello eligen la propiedad
de la señora Susan Wojcicki. Situado en el 232 de la Avenida Santa
Margarita el garaje ,que alquilaron por 1700 dólares mensuales, ayudaba a
Susan a pagar su hipoteca. Tan buena relación se estableció entre los chicos
y esta señora que ella terminó formando parte de la empresa al año de su
fundación. Actualmente es Vice-presidenta de gestión de la publicidad de
Google, entre otras cosas porque fue la que ideó Adsense. La historia de
esta mujer es muy curiosa y os recomiendo que visitéis este enlace a
Golpedegato para tener más información.
Queda claro que los garajes han sido muy importantes en el
desarrollo de grandes empresas actuales. Aunque no hay que
olvidar que no solo se necesita un lugar sino también unas mentes
tan atrevidas e innovadoras como las de estos personajes
GRANDES INVENTOS TECNOLOGICOS

#publicidad
. NET: Desbloquea tu Oportunidades de la aplicación
Hoy, Intel anunció que, además de aplicaciones de Adobe AIR, el
Intel AppUpSM Developer Program ahora soporte técnico de
Microsoft. NET aplicaciones que proporcionan los recursos que
incluyen un kit de desarrollo de software-nueva
733

17 Kinect los Juegos "Portafolio de lanzamiento" es tímido de


la línea de lanzamiento de Xbox 360 Uno-Up
Esta mañana Microsoft dio a conocer los 17 juegos que serán
parte de la detección de movimiento de Xbox 360 "Kinect
lanzamiento" de la cartera el próximo mes.

#blackberry
El estilo BlackBerry feo 9670 Clamshell
Aquí es que BlackBerry clamshell. Es un teléfono hermoso, si
usted es un personaje en tierra Jersey. El funcionario promo video
musical con música techno basura del infierno-da todo por la
borda:
Lanza bolas de nieve 150 pies este invierno con estos Jai Alai
Palas
Entiendo que no puede querer ser el hombre que trae un jai alai
xistera a una bola de nieve, seguro, pero si quieres empezar a
etiquetar a tus enemigos (barrio de nueve años de edad) a
distancias de hasta 150 pies, también. ..
HyperMac Tirando Conecte los cables de carga en el
MacBook
Es por eso que no puede tener buena (supuestamente infringir
patentes) las cosas! Después de dibujar el calor legales de Apple
para sus conectores MagSafe, HyperMac ha anunciado que dejará
de vender sus
MacBook de carga
cables y
cargadores de
coche el 2 de
noviembre. Pero
hay
esperanza!
Netflix
Streaming para
Wii no
requiere de un
disco

ANYMORE
Justo cuando amorosa Netflix serpentinas de Nintendo se
siente dejado fuera en el frío, Wii ha unido a la PS3 en
disco eliminando el requisito de Netflix. En cambio,
Netflix está disponible como descarga desde el Canal
Tienda Wii.
¿Quién quiere a los tsunamis en este Centro de Investigación
Marina de Indonesia del futuro?
Después de haber sido varias veces Bali, te puedo decir que este
concepto de buque de investigación marina es aproximadamente
un millón de años de distancia de la mayor parte de su
arquitectura. Decir que, sin embargo, la siguiente foto yuxtapone
lo viejo y lo nuevo bellamente
Ladrón portátil mensajes a su víctima de datos en una
memoria USB
Si usted va a obtener su portátil robado por alguien, mejor espero
que sea por este sueco, que copian los datos de la computadora
portátil en una memoria USB y lo envió a su víctima en el cargo
una semana después.
Mandelbrot Super-matemático Benoît ha fallecido
El matemático francés fue el padre de los fractales, y mientras que
el cáncer de páncreas se apoderó de él hace cuatro días, su fama
vivirá en las áreas de las matemáticas, la física, las finanzas, la
biología y muchos más.

Gene Simmons no entiende la Internet


Frontman de KISS Gene Simmons, además de ser un dios del
rock, es el mayor fanfarrón en el planeta. Así que cuando él se
mete en una pelea de Internet con el afiliado a Internet 4chan
vigilantes Anónimo ... así, se termina alentando a Anónimo.
HTC va fuera de pista con Gratia Bosque Verde teléfono
Android
¿Alguna vez has visto un Android como esto antes? Por desgracia,
sólo con destino a Europa, y aunque las especificaciones no son
tan altos como los últimos androides de HTC, que se está
ejecutando Froyo y viene en tres colores deliciosos.
¿Cómo los hombres perezosos Construye creaciones de Lego-
Con una impresora 3D (a base de Lego)
Que la impresora de Lego que los documentos impresos con
plumas y todo fue genial, pero una impresora 3D de Lego hecha
de ladrillos de 2400, que se basa la creación de un Lego de tus
sueños? Ahora que estamos hablando.

Guardar Cientos y llevar a los niños a la aplicación ... Free IPAD Disney
World
Metal iPhone 4 Tapa Protege tu iPhone 4 Sin el grueso de un
caso

El iPhone 4 de soporte de vidrio es muy frágil, incluso más que los otros
modelos de iPhone. Si desea que le mantenga protegida sin que el
teléfono de gran volumen, con un caso, considerar la sustitución de la
parte posterior con este metal cubierta posterior en su lugar

Televisión digital terrestre o TDT es la transmisión de imágenes


en movimiento y su sonido asociado (televisión) mediante una señal
digital (codificación binaria) y a través de una red de repetidores
terrestres.
La codificación digital de la información aporta diversas ventajas. Entre
ellas cabe destacar, en primer lugar, la posibilidad de comprimir la
señal, lo que implica que ésta requiere un ancho de banda menor para su
transmisión. Como resultado, se puede efectuar un uso más eficiente del
espectro radioeléctrico. Tras proceder a su multiplexación, se pueden
emitir más canales - que en sistema digital pasan a denominarse
"programas digitales" - en el espacio antes empleado por uno,
denominado ahora "canal múltiple digital" o "múltiplex". El número de
programas transmitidos en cada canal múltiple dependerá del ratio de
compresión empleado. Por otro lado, se puede dedicar el espectro
sobrante para otros usos. La compresión también ha hecho viable la
emisión de señales de televisión en alta definición (HD o high definition
en inglés), que requieren un ancho de banda mayor que la de definición
estándar.
La segunda ventaja aportada por la codificación digital es una mejora de
la calidad de la imagen y el sonido en el momento de la recepción.
Puesto que ambos están codificados de manera digital, es decir, de
manera lógica; y no de manera proporcional a las fuentes de
información inicial (televisión analógica), cuando se produce alguna
distorsión en la señal, lo que afectaría a la calidad de la recepción,
aquella puede ser corregida por el receptor. Éste identifica el error en la
señal y lo subsana. Ello se traduce en una mejor calidad. Conviene
mencionar que la señal digital no es más robusta que la analógica, es
decir, no es más resistente a posibles interferencias. Ambas son señales
electromagnéticas, de la misma naturaleza, y susceptibles de ser
distorsionadas por campos eléctricos o magnéticos, por las condiciones
meteorológicas, etc. La diferencia, como se ha expuesto, radica en la
manera de codificar la información. La codificación digital sigue
algoritmos lógicos que permiten posteriormente identificar y corregir
errores.
La transmisión de TDT se realiza siguiendo los parámetros técnicos
establecidos por diferentes estándares tecnológicos. Existen varios y su
uso por parte de los estados responde a su capacidad para crear
estándares, a su ubicación geográfica y a su pertenencia a la esfera de
influencia de los estados creadores de estándares.

ATUBE CATCHER

Características:
aTube Catcher es un sencillisimo programa para la descarga de vídeos de
YouTube, tiene una interfaz muy simple y tiene una característica especial
que permite la descarga de videos con la nueva caracteristica de HD (Alta
Definición) de YouTube.
Con aTube Catcher pudes descargar videos en multitud de formatos,
incluso en MP3 si no quieres la imagen

Pros

• Soporte para muchos sitios


• Descarga listas de reproducción
• Conversión muy rápida
• Grabador de DVD
• Numerosas opciones

Contras

• Documentación escasa

CREATIVE COMMONS
Creative Commons (CC) es una organización no gubernamental sin ánimo
de lucro que desarrolla planes para ayudar a reducir las barreras legales de
la creatividad, por medio de nueva legislación y nuevas tecnologías. Fue
fundada por Lawrence Lessig, profesor dederecho en la Universidad de
Stanford y especialista en ciberderecho, que la presidió hasta marzo de
2008.
Creative Commons (en español: «bienes comunes creativos») es también el
nombre dado a las licencias desarrolladas por esta organización.

Creative Commons International

El proyecto Creative Commons International es un apéndice del proyecto


mayor de Creative Commons. Tiene por objetivo traducir las licencias
Creative Commons a los diferentes idiomas, así como adaptarlas a las
diferentes legislaciones y sistemas de derechos de autor alrededor del
mundo. Este trabajo está liderado por la directora de Creative Commons
International, Catharina Maracke y por equipos de voluntarios en los
diferentes países.
Actualmente cuenta con 28 países que están en proceso de traducción de
las licencias, aunque se sabe que más de 70 países están interesados en
comenzar a colaborar para alcanzar sus respectivas versiones y capítulos
locales.
Licencias
Artículo principal: Licencias Creative Commons

Las licencias Creative Commons o CC están inspiradas en la licencia


GPL (General Public License) de la Free Software Foundation. No son,
sin embargo, un tipo de licenciamiento de software. La idea principal es
posibilitar un modelo legal ayudado por herramientas informáticas, para
así facilitar la distribución y el uso de contenidos.
Existe una serie de licencias Creative Commons, cada una con
diferentes configuraciones o principios, como el derecho del autor
original a dar libertad para citar su obra, reproducirla, crear obras
derivadas, ofrecerla públicamente y con diferentes restricciones, como
no permitir el uso comercial o respetar la autoría original.
Una de las licencias que ofrecía Creative Commons es la que llevaba
por nombre "Developing Nations" (Naciones en Desarrollo), la cual
permitía que los derechos de autor y regalías por el uso de las obras se
cobraran sólo en los países desarrollados del primer mundo, mientras
que se ofrecían de forma abierta en los países en vías de desarrollo. Esta
licencia ha sido retirada por problemas comerciales.
Aunque originalmente fueron redactadas en inglés, las licencias han
sido adaptadas a varias legislaciones en otros países del mundo. Entre
otros idiomas, han sido traducidas alespañol, al portugués, al gallego, al
euskera y al catalán a través del proyecto Creative Commons
International. Existen varios países de habla hispana que están
involucrados en este proceso: España, Chile, Guatemala, Argentina,
México, Perú, Colombia, Puerto Rico y Ecuador ya tienen las licencias
traducidas y en funcionamiento, en tanto que Venezuela se encuentra en
proceso de traducción e implementación de las mismas. Brasil también
tiene las licencias traducidas y adaptadas a su legislación.

Proteccion infantil en internet

Internet ha revolucionado el mundo, el mundo de todos. Los


conocimientos que nos llegan por medio de la red son casi ilimitados,
así como la comodidad que nos ofrece al permitirnos realizar compras,
contactar con estamentos oficiales, etc., han hecho que la vida sea
diferente. Pero como si Internet fuera un enorme cubo los hay que lo
usan para volcar su basura y esta nos salpica a todos, es en este punto
donde debemos proteger a los niños: Hoy por hoy existen múltiples
programas de protección parental que limitan la navegación por
Internet, impidiendo que se visiten ciertas páginas y que los más
pequeños puedan tener acceso a contenidos peligrosos. En
PortalProgramas podéis encontrar muchos programas de este tipo.

You might also like