domingo, 29 de noviembre de 2009

terabyte


Un Terabyte es una unidad de medida de memoria (2 elevado a 40) aproximadamente igual a un trillón de bytes (realmente Unidad de medida informática que se representa como "TB" y equivale a: 2 elevado al 40 bytes. En la práctica, un terabyte puede ser tanto 1.000.000.000.000 bytes (10 elevado al 12), como 1.099.511.627.776 bytes (1024 elevado a 4). Equivale a 1.024 veces un gigabyte.Un terabyte es una unidad de medida de almacenamiento de datos cuyo símbolo es TB y puede equivaler a 1024 GB.
Confirmado en 1960, viene del griego τέρας, que significa monstruo.
Debido a irregularidades en la definición y uso del kilobyte, el número exacto de bytes en un terabyte en la práctica, podría ser cualquiera de los siguientes valores:
12000.0001000.000 bytes - 1012, un billón. Esta definición es la que se usa en el contexto general cuando se refiere a almacenamiento en discos, redes u otro hardware.
12099.5111627.776 bytes - 10244 ó 240. Esto es 1024 veces un gigabyte (un gigabyte 'binario'). Esta es la definición más usada en las ciencias de la computación (computer science) y en programación (computer programming) y, la mayor parte del software, emplea también esta definición.[cita requerida]
Un disco duro o partición de un terabyte formateada con NTFS en Windows XP mostrará 931 gigabytes libres.[1]
Diferencia entre 1000 y 1024 Terabyte [editar]
Para clarificar la diferencia entre los prefijos decimal y binario la Comisión Internacional de Electrotécnica (I.E.C.), una corporación estándar, definió en 1998 nuevos prefijos usando la combinación del Sistema Internacional de Medidas prefijo SI con la palabra "binary" (vea prefijo binario), así que si nos referimos a binario, éste es nombrado por la IEC como tebibyte (TiB) mientras que si nos referimos a decimal entonces la IEC lo llama terabyte. Cabe decir que esta nomenclatura no ha sido aún ampliamente adoptadas.

megabyte





El megabyte (MB) es una unidad de medida de cantidad de datos informáticos. Es un múltiplo del octeto, que equivale a 106 (1.000.000 octetos) o 220 (1.048.576 Octetos), según el contexto. La primera definición es más acorde al prefijo mega-, mientras que la segunda es una cantidad más práctica desde el punto de vista informático. Para ésta es más acorde emplear el mebibyte, ya que los dos números están relativamente cercanos, y confundir uno con otro ha llevado ocasionalmente a problemas.
Se representa por MB y no por Mb (que correspondería a megabit) y coloquialmente se les denomina megas. Es la unidad más típica actualmente, usándose para especificar la capacidad de la memoria RAM, de las memorias de tarjetas gráficas, de los CD-ROM, o el tamaño de los programas, de los grandes archivos grandes, etc. La capacidad de almacenamiento se mide habitualmente en gigabytes, es decir, en miles de megabytes.
Se distingue del megabit (1.000.000 bits), con abreviación de Mbit o Mb (la "b" minúscula). Hay 8 bits en un octeto; por lo tanto, un megabyte (MB) es ocho veces más grande que un megabit (Mb)

byte Unidad que sirve para medir cantidad datos informáticos.Sirve para medir tamaño de archivos, capacidad de almacenamiento, velocidad de transferencia de datos (al agregarle una unidad de tiempo, generalmente segundos), etc.(definición tradicional)Un megabyte equivale exactamente a 1024 KB (kilobytes) o a 1.048.576 bytes.1024 (MB) megabytes equivalen a 1 GB.Para redondear se suele decir que un megabyte equivale a un millón de bytes.

kilobyte


Un kilobyte (pronunciado /kilobáit/) es una unidad de almacenamiento de información cuyo símbolo es el kB (a veces se utiliza KB), y equivale a 210 bytes (valor aplicando la definición de prefijo binario, aceptado por todo sistema operativo que se haya creado hasta la fecha) o a 103 bytes (valor aplicando la definición del Sistema Internacional de Unidades).
Los Ordenadores de 8 bits tienen una capacidad máxima (sin paginación de memoria) de 64 K, o 65536 bytes (o a 216 bytes). El IBM PC original soportaba un máximo de 256 Kilobytes y los compatible IBM PC, tenían una capacidad máxima de 640 KB en el sentido binario, o 655.360 caracteres de datos.Un Kilobyte (abreviado como KB o Kbyte) es una unidad de medida equivalente a mil bytes de memoria de ordenador o de capacidad de disco. Por ejemplo, un dispositivo que tiene 256K de memoria puede almacenar aproximadamente 256.000 bytes (o caracteres) de una vez.
En sistemas decimales, kilo significa 1.000, pero el mundo de los ordenadores se basa en un sistema binario de dos en vez de diez. Así pues, un kilobyte es realmente 1.024 (210) bytes. Para distinguir entre una K decimal (1.000) y una K binaria (1.024), el IEEE ha sugerido usar una k minúscula para un kilo decimal y una K mayúscula para un kilo binario.

byte





Byte es una voz inglesa (pronunciada [bait] o ['bi.te]), que si bien la Real Academia Española ha aceptado como equivalente a octeto, es decir a ocho bits, para fines correctos, un byte debe ser considerado como una secuencia de bits contiguos, cuyo tamaño depende del código de información o código de caracteres en que sea definido. La unidad byte no tiene símbolo establecido internacionalmente, aunque en países anglosajones es frecuente B mientras que en los francófonos es o (de octet); la ISO y la IEC en la norma 80000-13:2008 recomiendan restringir el empleo de esta unidad a los octetos (bytes de 8 bit).
Se usa comúnmente como unidad básica de almacenamiento de información en combinación con los prefijos de cantidad. Originalmente el byte fue elegido para ser un submúltiplo del tamaño de palabra de un ordenador, desde cinco a doce bits. La popularidad de la arquitectura IBM S/360 que empezó en los años 1960 y la explosión de las microcomputadoras basadas en microprocesadores de 8 bits en los años 1980 ha hecho obsoleta la utilización de otra cantidad que no sean 8 bits. El término octeto se utiliza ampliamente como un sinónimo preciso donde la ambigüedad es indeseable (por ejemplo, en definiciones de protocolos).
Contenido[ocultar]
La palabra "byte" tiene numerosos significados íntimamente relacionados:
Una secuencia contigua de un número de bits fijo. La utilización de un byte de 8 bit ha llegado a ser casi ubicua.
Una secuencia contigua de bits en una computadora binaria que comprende el sub-campo direccionable más pequeño del tamaño de palabra natural de la computadora. Esto es, la unidad de datos binarios más pequeña en que la computación es significativa, o se pueden aplicar las cotas de datos naturales. Por ejemplo, la serie CDC 6000 de mainframes científicas dividió sus palabras de 60 bits de punto flotante en 10 bytes de seis bits. Estos bytes convenientemente colocados forman los datos Hollerith de las tarjetas perforadas, típicamente el alfabeto de mayúsculas y los dígitos decimales. El CDC también refiere cantidades de 12 bits como bytes, cada una albergando dos caracteres de 6 bits, debido a la arquitectura de E/S de 12 bits de la máquina. El PDP-10 utilizaba instrucciones de ensamblado de 12 bits LDB y DPB para extraer bytes—estas operaciones sobreviven hoy en el Common Lisp. Los bytes de 6, 7 ó 9 bites se han utilizado en algunas computadoras, por ejemplo en las palabras de 36 bits del PDP-10. Los ordenadores del UNIVAC 1100/2200 series (ahora Unisys) direccionaban los campos de datos de 6 bits y en modo ASCII de 9 bits modes con su palabra de 36 bits.
Historia [editar]
El término byte fue acuñado por Waner Buchholz en 1957 durante las primeras fases de diseño del IBM 7030 Stretch. Originalmente fue definido en instrucciones de 4 bits, permitiendo desde uno hasta dieciséis bits en un byte (el diseño de producción redujo este hasta campos de 3 bits, permitiendo desde uno a ocho bits en un byte). Los equipos típicos de E/S de este periodo utilizaban unidades de seis bits. Un tamaño fijo de byte de 8 bits se adoptó posteriormente y se promulgó como un estándar por el IBM S/360. El término "byte" viene de "bite" (en inglés "mordisco"), como la cantidad más pequeña de datos que un ordenador podía "morder" a la vez. El cambio de letra no solo redujo la posibilidad de confundirlo con "bit", sino que también era consistente con la afición de los primeros científicos en computación en crear palabras y cambiar letras. Sin embargo, en los años 1960, en el Departamento de Educación de IBM del Reino Unido se enseñaba que un bit era un Binary digIT y un byte era un BinarY TuplE. Un byte también se conocía como "un byte de 8 bits", reforzando la noción de que era una tupla de n bits y que se permitían otros tamaños.
Es una secuencia contigua de bits binarios en un flujo de datos serie, como en comunicaciones por módem o satélite, o desde un cabezal de disco duro, que es la unidad de datos más pequeña con significado. Estos bytes pueden incluir bits de inicio, parada o paridad y podrían variar de 7 a 12 bits para contener un código ASCII de 7 bits sencillo.
Es un tipo de datos o un sinónimo en ciertos lenguajes de programación. C, por ejemplo, define byte como "unidad de datos de almacenamiento direccionable lo suficientemente grande para albergar cualquier miembro del juego de caracteres básico del entorno de ejecución" (cláusula 3.6 del C estándar). En C el tipo de datos unsigned char tiene que al menos ser capaz de representar 256 valores distintos (cláusula 5.2.4.2.1). La primitiva de Java byte está siempre definida con 8 bits siendo un tipo de datos con signo, tomando valores entre –128 y 127.
Los primeros microprocesadores, como el Intel 8008 (el predecesor directo del 8080 y el Intel 8086) podían realizar un número pequeño de operaciones en 4 bits, como la instrucción DAA (ajuste decimal) y el flag "half carry" que eran utilizados para implementar rutinas de aritmética decimal. Estas cantidades de cuatro bits se llamaron "nibbles" en honor al equivalente de 8 bits "bytes


La arquitectura de ordenadores se basa sobre todo en números binarios, así que los bytes se cuentan en potencias de dos (que es por lo que alguna gente prefiere llamar los grupos de ocho bits octetos).
Los términos Kilo (en Kilobyte, abreviado como K) y mega (en Megabyte, abreviado como M) se utilizan para contar bytes (aunque son engañosos, puesto que derivan de una base decimal de 10 números).
Web Masadelante.com
Suscríbete a nuestra Newsletter y Ponte en primera fila para recibir:
Las personas que se suscriban recibirán antes que nadie las siguientes guías:
Cómo Crear tu Propio Blog y Sitio Web
Cómo Codificar en HTML
Optimización para los Motores de Búsqueda
Cómo Ganar Dinero con tu Sitio Web
Regístrate para recibir nuestra Newsletter y estar al día sobre las nuevas preguntas frecuentes y contenido que vayamos añadiendo a nuestro sitio.


lotus 1-2-3


Lotus 1-2-3 es un clásico programa de planilla u hoja de cálculo creado o desarrollado por la empresa Lotus Development Corporation (que sería adquirida por IBM en 1996). Fue la primera killer application (“aplicación matadora o asesina”) para la plataforma IBM PC. La inmensa popularidad que logró alcanzar a mediados de la década de 1980 contribuyó significativamente a afianzar el éxito de las PCs dentro del ambiente corporativo y de oficina.[1]
Contenido[ocultar]
Comienzos [editar]
La corporación Lotus fue fundada por Mitchell Kapor, un amigo de los desarrolladores de VisiCalc, el primer programa de planilla de cálculo de la historia. Lotus 1-2-3 fue originalmente escrito por Jonathan Sachs, quien ya había escrito el código fuente de dos pequeñas aplicaciones de ese tipo mientras trabajaba para la compañía Concentric Data Systems, Inc.[2]
Para ayudar a ese crecimiento Lotus publicitó su producto por televisión en algunos países, entre ellos en el Reino Unido, siendo una de las primeras empresas desarrolladoras de software en utilizar ese medio de difusión.
Las rutinas de gráficos fueron escritas en lenguaje Forth por Jeremy Sagan (hijo de prestigioso y ya fallecido astrónomo Carl Sagan), mientras que las referidas a la impresión fueron codificadas por Paul Funk (fundador de Funk Software).[cita requerida]
Se llegó a alegar que la versión original del programa había sido escrita por estudiantes de doctorado de la Escuela de Negocios de la Universidad de Harvard (la Harvard Business School), quienes lo habrían vendido a Lotus por 200.000 dólares.[cita requerida]
Sea como haya sido, Lotus 1-2-3 fue inicialmente lanzado al mercado el 26 de enero de 1983, y ya en ese mismo año comenzó a superar en ventas a VisiCalc. De hecho, durante ese año la corporación Lotus logró ingresos por 53 millones de dólares, los que virtualmente se triplicaron hasta los 156 millones al año siguiente. Ya para 1985 la compañía alcanzaría una cifra de aproximadamente 1.000 empleados[3] , algo notable para una empresa que en ese entonces estaba básicamente especializada en el desarrollo de un único programa.
Por varios de los años siguientes sería la principal aplicación de planilla de cálculo para el por entonces dominante sistema operativo MS-DOS.
A diferencia de Microsoft Multiplan, 1-2-3 se mantenía una interfaz bastante similar a la ofrecida por VisiCalc, incluyendo la notación de celdas alfanumérica del tipo “A1”, que después sería heredada por Quattro Pro, Excel y OpenOffice.org Calc. Asimismo, tendría un menú accesible a partir de la presión de la tecla de barra (/), al igual que su antecesor.
El producto de Lotus se caracterizaba por tener pocos errores de programación (bugs), por lo que pronto adquirió una muy buena reputación debido a su solidez y estabilidad. Además, era notablemente rápido debido a que estaba enteramente programado en ensamblador (assembler) x86, lenguaje de programación que si bien es bastante engorroso de codificar, tiene una sintaxis muy cercana a la del repertorio de instrucciones (instruction set) del propio microprocesador. De hecho evitaba hacer uso de las relativamente lentas funciones de entrada/salida (input/output) de pantalla del propio MS-DOS, al escribir directamente en (el mapa de) las direcciones correspondientes a la memoria de video.

works





Works es una suite ofimática de Microsoft. Más pequeña, con menos funciones y menor precio que Microsoft Office, incluye procesador de texto y hoja de cálculo/base de datos. Las nuevas versiones tienen una aplicación de calendario mientras que las antiguas traían un emulador de terminal.
Contenido[ocultar]
Con la versión 4.5a, Works utiliza una arquitectura monolítica para que los documentos de procesamiento de texto, hoja de cálculo y base de datos, funcionaran en ventanas de la misma interfaz del programa, similar a Apple Works. Esto dio lugar a una pequeña memoria y disco footprints, que le permitieron funcionar en computadoras más lentas con los requisitos de hasta sólo 6 MB de RAM y 12 MB de espacio libre en disco.[1] Works 2000 (Versión 5.0) cambia a una arquitectura modular que se abre cada documento como una instancia independiente y utiliza el motor de la impresión de Internet Explorer. "Works Suite" versiones de paquetes de productividad personal y software de entretenimiento, tales como Microsoft Money, Encarta, Streets & Trips y Digital Image. Estas versiones de "Works Suite" también liaron una copia de Microsoft Word, aunque nunca hubo una versión más reciente de paquetes de Word 2002. Una posible razón de ello podría ser que Word 2003 o posterior no se ejecuta en Windows 9x o Windows Millennium Edition. A partir de 2008, se han suspendido las versiones de "Works Suite", sólo está disponible el software de Works de manera autónoma.
Compatibilidad de formatos en aplicaciones libres [editar]
Hay una librería general escrita en C++ que trabaja para leer los formatos de cada una de las diferentes versiones de Microsoft Works. Aún en 2009 continúa distribuyéndose y ha sido publicada experimentalmente como wps_test. En 2006, AbiWord ya no importa ninguna versión de esta suite.
Versiones [editar]
Works para MS-DOS [editar]
Microsoft Works 1.05
Microsoft Works 2.0 y 2.0a
Microsoft Works 3.0, 3.0a y 3.0b
Works para Windows [editar]
Microsoft Works 2.0 (Windows 3.x)
Microsoft Works 3.0 (Windows 3.x)
Microsoft Works 4.0, 4.0a, 4.5 y 4.5a (Windows 95)
Microsoft Works 2000 (v.5) (Microsoft Works Suite 2000)
Microsoft Works 6.0 (Microsoft Works Suite 2001 and 2002)
Microsoft Works 7.0 (Microsoft Works Suite 2003 and 2004)
Microsoft Works 8.0 (Microsoft Works Suite 2005)
Microsoft Works 8.5, actualización gratuita para 8.0 (Microsoft Works Suite 2006)
Microsoft Works 9.0
= [editar]

lunes, 16 de noviembre de 2009

Tic.








TIC agrupan un conjunto de sistemas necesarios para administrar la información, y especialmente los ordenadores y programas necesarios para convertirla, almacenarla, administrarla, transmitirla y encontrarla. Los primeros pasos hacia una sociedad de la información se remontan a la invención del telégrafo, eléctrico, pasando posteriormente por el teléfono fijo, la radiotelefonía y, por último, la televisión internet, la telecomunicación móvil y el GPS pueden considerarse como nuevas tecnologías de la información y la comunicación. La revolución tecnológica que vive en la humanidad actualmente es debida en buena parte a los avances significativos en las tecnologías de la información y la comunicación. Los grandes cambios que caracterizan esencialmente esta nueva sociedad son: la generalización del uso de las tecnologías, las redes de comunicación, el rápido desenvolvimiento tecnológico y científico y la globalización de la información.
Para el término tecnológico (TIC) véase tecnologías de la información y la comunicación
Los "tics" son movimientos repentinos, involuntarios y sin motivo aparente de grupos musculares. Tienen en común que son movimientos convulsivos, inoportunos y excesivos y que el efecto de distracción o el esfuerzo de voluntad disminuyen tal actividad. Los tics se dan con más frecuencia en los niños de entre 8 y 12 años, y son muy raros en niños menores de 6 años. Por lo general los tics desaparecen después de la adolescencia.Podemos encontrar tics de etiología no neurofisiológica, que se generan a partir de movimientos que en un principio se repetían de forma voluntaria y de etiología neurofisiológica, como el Síndrome de Tourette Al hablar de tic causado por nervios el plural es (tics) se hace la aclaraciòn que no se esta hablando de tecnologìa, que son las iniciales de Tecnologìa de informaciòn y comunicaciòn