sábado, 1 de julio de 2017

12 cosas falsas sobre la tecnología, que aún muchos creen que son verdaderas

Son muchos los falsos mitos de la tecnología que todavía hoy se mantienen y campan a sus anchas por todo el mundo, e incluso son recurrentes en personas con un alto nivel cultural o formadas específicamente dentro de diferentes campos asociados o vinculados directamente con el mito en cuestión.


Sin duda podríamos hacer un artículo muy largo si nos ponemos a recopilar, pero para que resulte más ameno, útil y fácil de recordar hemos optado por seleccionar seis de los falsos mitos más importantes que se mantienen actualmente.

Un procesador de más MHz siempre es mejor que otro de menos

Este falso mito se puede extender a otros derivados muy comunes que podemos considerar como una actualización de éste, como por ejemplo el viejo conocido de “cuantos más núcleos tenga un procesador mejor será”.

Obviamente ninguno de estos mitos es cierto, y la razón es evidente. Una CPU depende de una gran cantidad de elementos que derivan directamente de su arquitectura interna, como el proceso de fabricación, IPC (instrucciones u operaciones por ciclo de reloj), generación, instrucciones adicionales, consumo y memorias caché.

Así, un procesador de seis núcleos como el FX 6300 no es mejor que un Core i5 4460 de cuatro núcleos, ni siquiera aunque el primero corra a más MHz que el segundo y tenga más núcleos.

La calidad de una cámara depende únicamente de sus megapixeles

Totalmente falso, aunque ello no quiere decir que ello no afecte a la calidad de imagen, ya que influyen en la resolución máxima que es capaz de capturar.

Sin embargo, y hecha esa aclaración, no es lo más importante, ya que hay otros aspectos que juegan un papel vital y que normalmente no tenemos tan en cuenta, como por ejemplo el sensor o la calidad de la óptica que monta la cámara, así como su apertura..

Con esto en mente podemos entender porqué dos smartphones con cámara de 13 MP pueden echar fotos con una calidad muy dispar, y es que aunque tengan la misma resolución sus componentes clave no tienen porque ser los mismos.

Pong fue el primer videojuego de la historia

Muchos lanzan esa afirmación de forma rotunda y contundente, pero la realidad es que el primero videojuego de verdad fue Tennis for Two, desarrollado por William Higinbotham.

La base de este “simulador de tenis” fue un osciloscopio conectado a una computadora analógica, humilde pero suficiente para recrear un juego que permitía calcular la dirección de salida de la bola, su trayectoria y golpearla.

A diferencia de Pong, que se creo en 1972, el juego Tennis for Two fue desarrollado en 1958, así que no hay duda en este sentido, aunque algunos mantienen que OXO fue realmente el primer videojuego de la historia si adoptamos un concepto amplio del mismo.

OS X y Linux no sufren ataques de malware

¿Quién no recuerda aquella famosa campaña de Apple en la que la manzana sacaba pecho al decir que sus Mac no tenían virus? Todavía tengo grabado en la memoria incluso el momento en el que la imagen humana del ordenador de Apple daba un pañuelo a su homónimo de Windows.

Ambos sistemas tienen sus propios virus, aunque es cierto que la cantidad de malware que azota a OS X y Linux es mucho menor que la que vemos en sistemas basados en Windows, algo que tiene una explicación clara, la popularidad de la plataforma.

El malware normalmente busca infectar a la mayor cantidad posible de equipos, y dado que Windows tiene una posición dominante resulta evidente que los ciberdelicuentes prefieran crear un virus que tenga la capacidad potencial de infectar 500 millones de equipos que de colocarse sólo en unas pocas decenas de millones.

Apple inventó el sistema de interfaz gráfica de ventanas

La interfaz gráfica basada en ventanas ha sido uno de los elementos más importantes dentro de la informática que podemos calificar como moderna, esto es, aquella que ya queda alejada de los entornos de comandos como el memorable MS-DOS.

Sin embargo, y a pesar de su enorme importancia, muchos usuarios creen que fue Apple quien desarrolló dicho sistema de ventanas, e indican que Microsoft lo plagió en Windows pero no, eso es totalmente falso.

La realidad es que fue Xerox la desarrolladora de toda la idea y el concepto de dicha interfaz allá por 1972, aunque Apple se lo compró a cambio de un paquete de acciones tras salir a bolsa.

Los cables HDMI más caros merecen la pena

Nada más lejos de la realidad, un mito que sin duda ha hecho daño en el bolsillo de más de uno de forma injustificada y que obliga a más de uno a poner cara de circunstancia cuando un amigo le enseña las “grandes diferencias” que consigue con su nuevo cable HDMI de 200 euros.

Esto no sólo lo digo yo, sino que ha quedado demostrado en numerosas comparaciones, lo que supone que los cables HDMI extremadamente caros que vienen chapados en oro sólo ofrecen mejoras marginales y casi imperceptibles frente a los modelos económicos.

Dicho esto tenlo claro, un cable HDMI de cinco dólares es más que suficiente. 




PC es Windows

La cuota de mercado de Windows en torno al 90 por ciento de escritorios informáticos y el dominio de Microsoft del canal de fabricación y distribución, ha llevado a una buena parte de consumidores a confundir el producto general con la marca, de la misma forma que hablamos de “coca-colas” y no de refrescos de cola, de “danones” y no de yogures o de “caseras” y no de gaseosas, como si no hubiera en el mercado otras marcas.

Este mito podemos verlo a diario en cualquier parte, publicitado desde los mismos fabricantes de PC, en un canal de ventas física o por Internet o en cualquier medio de comunicación. Incluso en uno especializado como el nuestro hay ocasiones que se nos escapa. Un PC es un ‘ordenador personal’ sin importar el sistema operativo que tenga instalado, que podrá ser Windows, Linux, un UNIX como BSD y un largo etc, incluyendo el OS X de Apple como veremos a continuación.

Un Mac es mejor que un PC / Mac es basura cara

Los dos enunciados son falsos. Hubo un momento en que los Mac y los PC eran muy diferentes en arquitectura, pero hoy en día son básicamente los mismos equipos. Un Mac no es mejor que un PC simplemente porque un Mac es un PC con OS X (aunque jamás lo veas escrito por Apple) y puede correr igualmente Windows (con soporte oficial), Linux u otros. Apple es inigualable en marketing pero hablar de ‘mejor’ porque lleve la firma de la manzana es incorrecto. Con un hardware muy similar frente a la competencia, la comparación objetiva entre sistemas operativos es sumamente complicada porque dependerá del gusto del usuario por la interfaz y el manejo general del sistema, de las aplicaciones a manejar y de las necesidades concretas.

Apple no tiene termino medio, o se le ama o se le odia. Por ello verás titulares que hablan del mejor portátil de la historia de la informática o de “basura cara”. Ciertamente, Apple cobra un plus si lo comparamos con un equipo de otro fabricante con idéntico hardware, pero no es tanto como dan a entender sus detractores si analizamos modelos concretos. Valga el MacBook Air como ejemplo comparado con otros ultraportátiles Windows. Y no todo es hardware directo como procesador o memoria. El diseño, calidad de construcción, acabados, autonomía, ruido o calor emitido o la optimización del sistema operativo también suma valor y no poco, aunque a veces no se cuantifique.

Una gráfica es más rápida cuanta más memoria tenga

Los videojuegos actuales o las aplicaciones gráficas profesionales exigen una gran cantidad de recursos del sistema. La mayoría de ellos lo aporta la tarjeta gráfica. Además de rapidez, también necesitan capacidad para almacenar la gran cantidad de datos que debe manejar el motor gráfico. En videojuegos, texturas, mapas de sombras o iluminación principalmente. Para “alimentar” de datos al núcleo gráfico, las gráficas integradas en procesadores o chipsets pueden conformarse con utilizar una parte de la memoria RAM pero las gráficas dedicadas, necesitan -como su nombre indica- memoria específica más allá de la del sistema.

Aquí es donde entra la memoria VRAM, un tipo de memoria específicamente diseñada para su uso en soluciones gráficas, más rápida incluso que la RAM en las normas más avanzadas como GDDR5. La cantidad de memoria dedicada de la oferta actual va desde 1 Gbyte de las gráficas básicas de consumo hasta los 12 Gbytes que ofrecen algunos modelos profesionales. Es obvio que cuanto más tengamos mejor pero ello no indica -como erróneamente cree una buena parte de usuarios- que la cantidad de memoria dedicada de una tarjeta gráfica sea el componente responsable de su rendimiento y de hecho, hay tarjetas con 2 Gbytes mucho más rápidas que modelos de 4 Gbytes. Cierto es que deberemos contar con un mínimo de memoria porque de lo contrario la GPU quedará “desabastecida” de datos y se producirán retardos pero si tenemos un mínimo suficiente, el núcleo gráfico y su frecuencia de trabajo, y otros aspectos del chip como la velocidad de la memoria, marcarán el rendimiento y no la cantidad de VRAM que tengamos instalada.

Linux es difícil de instalar y manejar, y solo es para expertos

Otro mito que hoy en día no se sostiene. Comenzar con Linux después de leer y oír durante décadas que Linux es “muy difícil” y “solo es para expertos” puede resultar intimidante para un usuario que nunca ha probado el sistema libre, acostumbrado a comprar equipos con Windows o Mac OS X donde el sistema estaba ya pre-instalado. La falta de soporte OEM a Linux ha penalizado su uso y con ello ha crecido el mito sobre su dificultad. La verdadera realidad es que nunca ha sido tan sencillo instalar y manejar Linux.

Actualmente, la inmensa mayoría de distribuciones GNU/Linux son tan fáciles de instalar como una instalación limpia de Windows. Bajo una interfaz gráfica, el proceso se ha automatizado casi totalmente, incluyendo el manejo del sistema de archivos o particiones y un gestor de arranque que permite a Linux convivir con otros sistemas operativos como Windows en el mismo equipo. Sobre el uso de la interfaz de usuario más de lo mismo. Frente a la unificación de Windows u OS X, en Linux hay disponibles múltiples entornos de escritorio altamente personalizables que se manejan igual de fácil que ellos. La instalación de aplicaciones mediante los gestores de paquetes es hoy algo trivial y están disponibles a golpe de clic. Y no, no tienes obligación de utilizar -si no quieres- la consola de administración de Linux, otro mito que también persiste.

Borrar archivos destruye datos del disco duro / Utiliza un imán para destruir datos

Un simple borrado de archivos en una unidad de almacenamiento no elimina para siempre esos datos. Los archivos ocupan un espacio en el disco y con su eliminación simplemente se marca ese espacio como disponible en la unidad, lo que permite que los datos se sobreescriban. Pero no están eliminados del todo y de hecho se pueden recuperar ante un borrado accidental. La capacidad de recuperación dependerá de los datos sobreescritos en esa porción del disco y de las herramientas a utilizar. Simples herramientas software gratuitas ya nos permite recuperar bastantes datos si no han sido demasiado sobreescritos y empresas especializadas en recuperación de datos alcanzan un nivel que nos podría sorprender. Son múltiples los casos conocidos de PCs antiguos que se han retirado o vendido a los que se les ha recuperado los datos porque simplemente se había realizado un simple borrado. También en smartphones de consumo. Si vendes tu equipo asegúrate con herramientas especializadas.

Otro mito que ha llegado hasta nuestros días es la utilización de un imán para destruir datos. Un método que nos servía en formatos como los populares disquetes pero que con los discos duros y SSD actuales es ineficaz. Un método que funciona es utilizar herramientas que sobreescriben una y otra vez “ceros y unos” hasta que los datos son irrecuperables. Otro método es emplear la fuerza bruta de toda la vida como trituradoras profesionales. En casa, coge un taladro y perfora el disco con diez o doce agujeros de manera longitudinal. O agarra un buen martillo y desahógate…

Crear tu propio PC siempre ahorra dinero

Muchos de nosotros creamos nuestro propio ordenador de sobremesa a base de componentes sueltos. Tiene múltiples ventajas. Podemos instalar exactamente lo que necesitamos, mezclando componentes de cualquier proveedor, instalando nuestro sistema operativo preferido, las aplicaciones precisas evitando el nefasto bloatware, crear máquinas especializadas de la que hay menos oferta como mini-pcs de salón y podemos actualizarlo a voluntad sin problemas de garantía.

Pero ¿siempre es más barato? Hace unos años la respuesta era afirmativa y el mito ha persistido, pero actualmente el mercado ha cambiado y no siempre es más barato. Hay fabricantes que cuentan con ciertos componentes clave como placas base y gráficas dedicadas propias que les permiten abaratar sus PC de fábrica. Por otro lado, un fabricante que compra 10.000 procesadores o memorias para una línea de producto va a conseguir un precio muy inferior al que podemos acceder los consumidores cuando compramos un componente retail. Si unimos el gran descenso de venta registrado en el mercado PC, podremos entender la rebaja de precio de ordenadores de sobremesa OEM, que ha sido considerable. Por no hablar de ofertas puntuales de algunos modelos y fabricantes. Valóralo a la hora de crear tu propio PC porque no, hoy en día no siempre es más barato crearlo tú mismo aunque siga teniendo las ventajas señaladas.



Publicar un comentario