domingo, 8 de noviembre de 2015

CRITERIOS DE LOS SISTEMAS OPERATIVOS


  • El objetivo consiste en asegurar que el sistema seleccionado sea verdaderamente compatible y tenga por delante una larga vida de servicio y actualizaciones.
  • Es posible que no tenga que satisfacer cada uno de estos criterios para considerar un sistema en particular, pero si no se satisfacen más de unos cuantos de estos, considere que se debe descartar dicho sistema.
  • Los primeros elementos de la lista son los más importantes y los que se encuentran el final tienen quizás menor importancia (aunque son todos importantes).
  • Procesador. Una tarjeta madre Pentium debe utilizar como mínimo la segunda generación 3.3v de procesadores Pentium, la cual tiene una configuración Socket 5 o Socket 7 de 296 pins, la cual difiere físicamente del diseño de primera generación Socket 4 de 273 pins.
  • Las tarjetas madre con la configuración Socket 7 también manejan los recientes procesadores con la tecnología MMX, incluyendo a los K6 de AMD.
  • Todos los Pentium de segunda generación (75 MHZ y superiores) tienen por completo las mejoras SL.
  • Los mas recientes Procesadores Pentium Pro y Pentium II tienen configuraciones propias, únicas de tarjeta madre y por ello no son compatibles con otras tarjetas madre basadas en Pentium.
  • - Sockets de procesador. Una tarjeta madre Pentium debe tener por lo menos un Socket ZIF que siga la especificación Socket 7 (321 pins) de Intel.
  • Este Socket, con uno adyacente para el VRM (Módulo Regulador de Voltaje), permitiría que seleccionen futuros procesadores Pentium disponibles a velocidades más altas.
  • Aunque el Socket 5 es similar al Socket 7, muchos de los más recientes y rápidos Pentium -incluyendo los procesadores equipados con MMX - requieren del Socket 7.
  • Las tarjetas madre Pentium Pro (P6) usan el Socket 8 y muchas están preparadas para admitir varios procesadores. Antes de incurrir en el gasto de comprar una tarjeta de procesadores múltiples, asegúrese de que su sistema operativo pueda manejarla.
  • - Velocidad de la tarjeta madre. Una tarjeta madre Pentium o Pentium Pro debe operar a 60 o 66 MHZ y poder alternar entre estas velocidades.
  • Observe que todos los procesadores Pentium y Pentium Pro que se venden hoy en día operan a un múltiplo de velocidad de la tarjeta madre. Por ejemplo, el Pentium 75 opera a una velocidad de tarjeta madre de 50 MHZ; los chips Pentium de 60, 90, 120, 150 y 180 MHZ operan a una velocidad base de la tarjeta madre de 60 MHZ; y los Pentium de 66, 100, 133, 166 y 200MHZ operarán para una configuración de la velocidad de 66 MHZ de la tarjeta madre.
  • Los Pentium Pro 150, 180, y 200 operan a velocidades de 50, 60 y 66 MHZ, respectivamente. Todos los componentes de la tarjeta madre (en especial la memoria caché) debén estar habilitados para operar a la máxima velocidad permisible de la tarjeta madre.
  • - Memoria Caché Todas las tarjetas madre Pentium deben tener en ellas un caché de Nivel 2, de 256 a 512 Kb.
  • La mayoría de los procesadores Pentium Pro tienen integrada un cache de este tipo, pero podrían tener mas caches de nivel 2 sobre la tarjeta madre para un desempeño aún mejor.
  • El caché de nivel 2 debe ser de diseño de escritura -hacia -atrás y debe contener chips lo suficientemente rápidos para manejar la velocidad máxima de tarjetas madre, lo que implica 15 ns o mas rápidos para velocidades máximas de tarjetas madre de 66 MHz.
  • Para la tarjetas Pentium Pro, el caché debe ser de tipo SRAM Síncrona (RAM estática), a la que también se le denomina SRAM en ráfaga por conductos.
  • - Memoria RAM Todas las tarjetas madre Pentium y Pentium Pro deben emplear ya sea SIMMs (Modulo sencillo de memoria en línea) de 72 pins, o bien DIMMs(Modulo Dual de Memoria en líneas) de 168 pins.
  • Debido al diseño de 64 bits de estas tarjetas, los SIMMs de 72 pins deben instalarse por pares, mientras que los DIMMs se instalan uno a la vez uno por banco de 64 bits.
  • Considere con cuidado la cantidad total de memoria que puede manejar la tarjeta. Mientras que se considera que 16 Mb son apenas el mínimo para las aplicaciones consumidoras de memorias de hoy en día, en realidad podría requerir mucho más.
  • Las tarjetas madre Pentium deben de manejar un mínimo de 128 Mb, y muchas tarjetas Pentium II actuales ¡manejan mas de 1 Gb¡ Una tarjeta madre debe contener por lo menos cuatro conectores de memoria (de 72 o 168 pins, o una combinación) y entre más, mejor.
  • Para un máximo desempeño, busque sistema que manejen SIMMs/DIMMs de tipo SDRAM (DRAM Sincrona) o EDO (salida de Datos Ampliada). Los SIMMs deberán tener una velocidad de 70 ns o más.
  • Lo ideal en los sistemas de misión crítica es que usen SIMMs de paridad y asegurarse de que la tarjeta madre maneje por completo la verificación de paridad o incluso también el ECC Código de corrección de errores.
  • Observe que el popular conjunto de chips Tritón Pentium de Intel (82439 NX) y él más reciente Tritón Pentium de Intel (82430FX) no maneja ninguna verificación de paridad, pero sus otros conjuntos de chips Pentium, como el anterior Neptuno (82439NX) y él más reciente tritón II (82430 HX) en efecto ofrece el manejo de la paridad.
  • El Tritón II ofrece la capacidad ECC utilizando SIMMs estándar de paridad Todos los conjuntos de chips Pentium Pro actuales manejan también paridad de memoria y son ideales para servidores y otros usos de misión crítica cuando están equipados con SIMMs o DIMMs de paridad.
  • - Tipo de bus. Las tarjetas madre Pentium. Pentium Pro y Pentium II deben tener cuatro ranuras de bus ISA y tres o cuatro ranuras de bus local PCI. Observar el diseño de las ranuras para asegurarse de que las tarjetas que se inserten en ellas no bloqueen el acceso a los conectores de memoria, o queden bloqueadas por otros componentes del gabinete.
  • - Bios. La tarjeta madre deberá emplear un BIOS estándar de la industria como son los de AMI, Phoenix, Microid Reseach o Award.
  • El diseño del BIOS debe ser de ROM rápida (Flash ROM) o EEPROM (memoria Programable y borrable Eléctricamente Solo de lectura), para una fácil actualización.
  • El BIOS debe manejar la especificación plug and Play, IDE, Mejorada o ATA rápida, así como unidades de disco flexible de 1.44 Mb. Asimismo, dentro del BIOS debe estar integrado el manejo de APM (administración Avanzada de corriente).
  • - Factor de la forma (formato). Para una flexibilidad máxima, el factor de forma de la Baby - AT es aún una buena elección.
  • Se puede instalar en la más amplia variedad de diseños de gabinete y en la mayoría de los sistemas, es ajustable. Para el mas alto desempeño y futura flexibilidad, muchas tarjetas madre y sistemas recientes incorporan el nuevo factor de tamaño ATX, el cual tiene un desempeño distinto y ventajas funcionales sobre la Baby - AT.
  • - Interfaces integradas. De manera ideal, una tarjeta madre debe contener tantos controladores e interfaces estándar integrados como sea posible (con excepción del vídeo).
  • Una tarjeta madre debe tener integrado un controlador de disco flexible que maneje unidades de 1.44 Mb, buses locales primario y secundario (bus PCI o VL) integrados; conectores IDE mejorados (también llamados ATA rápidos); Dos puertos seriales integrados de alta velocidad (deben usar UARTs de tipo 16550 A con búfer); y un puerto paralelo integrado de alta velocidad (compatible con EEP/ESP). Algunos sistemas recientes, en particular los que tienen factor de forma ATX o NLX, deben incluir integrado un puerto USB (Bus Serial Universal).
  • En el futuro próximo, los puertos USB se convertirán en un elemento "obligatorio " en los sistemas multimedia.
  • En estándares ASPI (interfaz de Programación Avanzada SCSI).
  • Los adaptadores de red integrados son aceptables, pero por lo regular una tarjeta de red para ranura ISA se maneja con mas facilidad por parte de los controladores estándar y también se actualiza mas fácilmente.
  • - Plug and Play o (PnP). La tarjeta madre debe manejar por completo la especificación PnP de Intel. Esto permite la configuración automática de adaptadores PCI, así como de adaptadores ISA PnP.
  • - Administración de corriente. La tarjeta madre debe manejar por completo los procesadores SL mejorados con APM (administración Avanzada de Corriente) y protocolos SMM (modo de Administración del sistema), que permita disminuir la energía en diversos componentes del sistema a diferentes niveles de estados de actividad y consumo de energía.
  • - Conjuntos de chips de la tarjeta madre. Las tarjetas madre Pentium y Pentium MMX deben utilizar un conjunto de chips de alto desempeño, de preferencia uno que permita la verificación de paridad, como el Tritón II de Intel (430 HX).
  • El popular conjunto de chips original Tritón Intel (430 FX), junto con las mas recientes 430 TX y 430 VX, no maneja la verificación de paridad de memoria.
  • Para aplicaciones críticas que usan tarjetas madre Pentium, en donde es importante la precisión e integridad de los datos, se recomienda usar una tarjeta basada en el conjunto de chips Tritón II (430 HX) o cualquier otro similar que maneje el ECC de memoria empleando módulos de paridad efectiva de memoria.
  • Como algo adicional, el conjunto de chips 430 HX maneja el USB y varias CPUs, duales, haciéndolo realmente versátil.
  • Actualmente las tarjetas madre Pentium II tiene el conjunto de chips Orinó (450 KX y 450 GX) de alta tecnología.
  • - Documentación. Una buena documentación técnica es obligatoria.
Debe contener información sobre todos y cada uno de los jumpers e interruptores que se encuentran en la tarjeta, la descripción de pins de todos los conectores, las especificaciones de chips de caché RAM; SIMMs y otros componentes conectables, así como cualquier otra información técnica aplicable.


Gracias a esta información podemos darnos cuenta de todo los avances que la tecnología ha logrado evolucionar y cuanto a mejorado sur servidores en cuanto a capacidad tamaño y velocidad y hasta el sol de nuestros días seguirán aumentando cada vez mas.


Información sacada de: http://522gdp.blogspot.com.co/2012/01/criterios-de-planificacion.html
Para completar la información dejo siguiente link.
 http://sistemasoperativosbyjadiman.blogspot.com.co/2015/05/criterios-de-seleccion-de-un-sistema.html

CRITERIOS DE SELECCIÓN DE UN SISTEMA OPERATIVO

CRITERIOS DE SELECCIÓN DE UN SISTEMA OPERATIVO




Ø  La selección del sistema operativo adecuado depende de varios factores, entre otros tenemos:
Ø   Rol del equipo (Server, Workstation, PC, etc.)
Ø   Función del equipo (Servidor de aplicaciones, estación de trabajo para diseño gráfico, Computador personal, Servidor web, etc.)
Ø  Compatibilidad con aplicaciones.
Ø  Soporte técnico.
Ø  Funciones de seguridad
Ø  Costo (existen diferentes tipos de licencia pagas y libres)
Ø  Características técnicas del ordenador (CPU, RAM, HDD)
Ø  Compatibilidad con el Hardware.
Ø  Utilización de la C.P.U., queremos que la C.P.U. se mantenga tan ocupada como sea posible.
Ø  Rendimiento, una medida del trabajo es el número de procesos que se completa por unidad de tiempo.
Ø  Tiempo de Retorno, sería la suma de los periodos transcurridos esperando entrar en la memoria, esperando en la cola de procesos listos, ejecutándose en la C.P.U. y efectuando operaciones de E/S.
Ø  Tiempo de espera, es el tiempo que el proceso espera en la cola de procesos listos.
Ø  El tiempo de respuesta, el tiempo transcurrido desde la presentación de una solicitud hasta que se produce la primera respuesta.


ØSiempre vamos a intentar maximizar la productividad (el tiempo de C.P.U.) y se intenta minimizar el tiempo de retorno, de respuesta y el de espera.

HISTORIA DE LOS SISTEMAS OPERATIVOS


HISTORIA DE LOS SISTEMAS OPERATIVOS




Gracias a los avances y al crecimiento de la industria y la tecnología hoy en día tenemos muchas mas ventajas que quizás muchas personas no lograron conocer como los inicios de la tecnología y el inicio de los sistemas operativos a continuación gracias a la información que existe podremos ver algo de estos inicios.

Los comienzos: la década de 1940

En 1946 se presentó en público el ENIAC, la primera computadora de propósito general utilizada por el ejército de los Estados Unidos, que utilizaba la tecnología de válvulas electrónicas o tubos de vacío. En esta época los ordenadores no disponían de sistema operativo. Todas las instrucciones de los programas eran codificados a mano a través de interruptores, y más tarde utilizando tarjetas perforadas de forma totalmente manual.

Los sistemas de trabajo por lotes

Hasta la década de 1950 era una persona (el operador) el que se encargaba de cambiar físicamente entre los trabajos que ejecutaba el ordenador. Se perdía un tiempo considerable entre trabajo y trabajo debido a que esta labor se hacía manualmente, así que se pensó en realizar la labor del cambio de tareas de manera automática. Fue entonces cuando surgieron los primeros sistemas operativos (llamados así porque sustituyeron en parte el trabajo del operador) con la intención de acelerar y automatizar la transición entre trabajos. Se agrupaban los trabajos en grupos llamados lotes, de manera que cuando una tarea terminaba, el sistema operativo se encargaba de leer e iniciar el siguiente trabajo dentro del lote. La introducción de los primeros sistemas operativos, y el uso de transistores que sustituyeron a los tubos de vacío hizo que la velocidad de proceso de las máquinas aumentase considerablemente.

Los sistemas multitarea

A comienzos de la década de 1960 surgen los sistemas de tiempo compartido, en los que varios programas se encuentran en memoria, y parece que se estén ejecutando de manera simultánea, ya que el ordenador va alternando entre ellos rápidamente asignando pequeñas franjas de tiempo de ejecución a cada uno. De esta época cabe destacar sistemas operativos como CTSS (Sistema de Tiempo Compartido Compatible) y su sucesorios, precursor de los actuales sistemas UNIX.

En 1964 IBM lanzó la familia de ordenadores Sistemas/360, que utilizaban circuitos integrados como tecnología principal, y el OS/360 como sistema operativo. El sistema fue evolucionando para poder servir a múltiples usuarios simultáneamente, soportando entornos de proceso por lotes multiusuario con tiempo compartido y multiprocesamiento, y que dio muchos quebraderos de cabeza a sus creadores y usuarios debido a su complejidad y enorme tamaño.

A comienzos de la década de 1960 surgen los sistemas de tiempo compartido, en los que varios programas se encuentran en memoria, y parece que se estén ejecutando de manera simultánea, ya que el ordenador va alternando entre ellos rápidamente asignando pequeñas franjas de tiempo de ejecución a cada uno. De esta época cabe destacar sistemas operativos como CTSS (Sistema de Tiempo Compartido Compatible) y su sucesorMULTICS, precursor de los actuales sistemas UNIX.


En 1964 IBM lanzó la familia de ordenadores Sistemas/360, que utilizaban circuitos integrados como tecnología principal, y el OS/360 como sistema operativo. El sistema fue evolucionando para poder servir a múltiples usuarios simultáneamente, soportando entornos de proceso por lotes multiusuario con tiempo compartido y multiprocesamiento, y que dio muchos quebraderos de cabeza a sus creadores y usuarios debido a su complejidad y enorme tamaño.

La informática tal y como se le conoce hoy día, surgió a raíz de la II Guerra Mundial, en la década de los 40. En esos años no existía siquiera el concepto de "Sistema Operativo" y los programadores interactuaban directamente con el hardware de las computadoras trabajando en lenguaje máquina (esto es, en binario, programando únicamente con 0s y 1s). El concepto de Sistema Operativo surge en la década de los 50. El primer Sistema Operativo de la historia fue creado en 1956 para un ordenador IBM 704, y básicamente lo único que hacía era comenzar la ejecución de un programa cuando el anterior terminaba. En los años 60 se produce una revolución en el campo de los Sistemas Operativos. Aparecen conceptos como sistema multitarea, sistema multiusuario, sistema multiprocesadores y sistema en tiempo real. Es en esta década cuando aparece UNIX, la base de la gran mayoría de los Sistemas Operativos que existen hoy en día.

En los años 70 se produce un boom en cuestión de ordenadores personales, acercando estos al público general de manera impensable hasta entonces. Esto hace que se multiplique el desarrollo, creándose el lenguaje de programación C (diseñado específicamente para reescribir por completo el código UNIX). Como consecuencia de este crecimiento exponencial de usuarios, la gran mayoría de ellos sin ningún conocimiento sobre lenguajes de bajo o alto nivel, hizo que en los años 80, la prioridad a la hora de diseñar un sistema operativo fuese la facilidad de uso, surgiendo así las primeras interfaces de usuario. En los 80 nacieron sistemas como MacOS, MS-DOS, Windows.
En la década de los 90 hace su aparición Linux, publicándose la primera versión del núcleo en septiembre de 1991, que posteriormente se uniría al proyecto GNU, un sistema operativo completamente libre, similar a UNIX, al que le faltaba para funcionar un núcleo funcional. Hoy en día la mayoría de la gente conoce por Linux al Sistema Operativo que realmente se llama GNU/Linux
Primera generación (1945-55) - Tubos de vacío y paneles Utilidad: máquinas de cálculo. Tecnología: dispositivos mecánicos ⇒ tubos de vacío y paneles. Método de programación: cables ⇒ interruptores y tarjetas perforadas. Diseño/construcción/operación/programación/- mantenimiento: genios como Aiken, von Newman o Mauchley.
Segunda generación (1955-65) Transistores y sistemas por lotes Utilidad: cálculo científico e ingeniería. Tecnología: la invención del transistor redujo su tamaño y precio y los popularizo ⇒ mainframes/IBM 1401/7094. Método de programación: ensamblador y lenguajes de alto nivel (FORTRAN) sobre tarjetas perforadas. Paso de procesamiento secuencial a procesamiento por lotes. Ejemplos: FMS y IBSYS.
Tercera generación (1965-80) Circuitos integrados y multiprogramación 2 usos principales: cálculo científico e ingeniería. Procesamiento de caracteres. Circuito integrado ⇒ +barato ⇒ +popular ⇒ IBM 360, GE-645, DEC PDP-1. Logros destacables:
multiprogramación. spooling. Tiempo compartido. Ejemplos: OS/360, CTSS, MULTICS, UNIX.
Cuarta generación (1980-hoy) Ordenador personal (era µ) (V)LSI ⇒ ++barato ⇒ ++popular ⇒ IBM PC. µP: 8080, Z80, 8086, 286, 386, 486, Pentium, Core 2, Athlon, Alpha, Ultrasparc. Logros destacables: GUI. SO de red. SMP. SO distribuidos. Ejemplos: UNIX, CP/M,
Clasificación de SO según su estructura ¿Cómo se organiza internamente el SO? Clasificación: Desestructurados. Estructura simple: monolíticos capas modulares Estructura cliente/servidor: micro núcleo exonúcleo Máquina virtual. Híbridos. Tendencias: Núcleos extensibles. Multiservidores sobre un micro núcleo. Núcleos híbridos.

Monolítico El SO completo se ejecuta en modo protegido. Nula protección entre los componentes. Ventajas: Economía de cambios de contexto ⇒ +eficiente. Inconvenientes: Falta de protección ⇒ -fiabilidad (controladores). Manejo de la complejidad: Es más sencillo escribir 103 programas de 103 líneas que uno de 106 .
  
Esta historia es algo que fue el nacimiento de los programas que hoy en dia nos hacen la vida mas fácil, eficiente y rápido.

https://www.youtube.com/watch?v=z33IweL76xA

Sistemas Operativos Evolucion e Historia a traves del tiempo http://www.academia.edu/4079960/Sistemas_Operativos_Evolucion_e_Historia_a_traves_







jueves, 27 de marzo de 2014

DESARROLLO TRABAJO GUÍA N°3




Encuesta diagnóstico.

En la siguiente encuesta se podrá valorar los diferentes procesos y a su vez podemos darnos cuentas en cuáles de ellos nos encontramos  y con cuales nos identificamos.


Esquemas de Representación Técnicas de Expresión Oral.

 La representación de estas técnicas las desarrollamos por medio de una presentación que se podrán observar en el link http://prezi.com/gvas2_r0iti_/untitled-prezi/  se deja evidencia del pantallazo.


Pantallazo mensaje expresión oral:

En la tutoría # 6, se eligió para exponer la técnica de expresión oral “FORO” con el tema de presentación “La Importancia de las Competencias Comunicativas en la Aldea Global”. La siguiente es la evidencia del envió del mensaje solicitando el tema.



INFORME TRABAJO COLABORATIVO.

TRABAJAR COLABORATIVAMENTE.
El trabajo colaborativo dentro del plan de estudios se realizó en coordinación con los compañeros Jorge Alejandro Álvarez, Juan Carlos Murillo y Giovanny Pareja Díaz, con los cuales conformamos el Grupo al que le llamamos Ing. Sistemas, para el desarrollo de las actividades se coordinaron reuniones en los lugares de residencias de cada uno de los integrantes, ya que por trabajar en la misma institución se nos facilitaba en ocasiones realizar dichos  encuentros, cuando no logramos realizar los encuentros de manera presencial,  se empleaban las herramientas de las TIC, como los son Skipe, Facebook, Gmail, entre otros, con estas herramientas logramos comunicarnos y continuar con el   desarrollo de las actividades propuestas, respetando la opinión de cada integrante y así estructurar una buena comunicación para lograr un trabajo final satisfactorio para todos.
     Para la organización de los encuentros presenciales y de manera virtual  cada integrante tuvo la oportunidad de desempeñar el rol de líder del grupo,  quien se encargaba de realizar la programación de dichos encuentros empleando diferentes herramientas de comunicación, en ocasiones cuando por motivos personales o laborales no se lograban la integración del grupo el compromiso adquirido por cada uno de los miembros se convierte en responsabilidad y disciplina ya que cada uno genero un cronograma de estudio por lo cual  continuábamos  con el proceso de investigación de cada uno de los temas a desarrollar para luego interactuar y complementar las ideas.            
     Por último fue fundamental identificar las habilidades de cada uno de nosotros para así sacar el mayor provechó de ellas, teniendo en cuenta una organización y participación conjunta de cada uno de los integrantes del grupo.
REFLEXIÓN AUTORREGULACIÓN.

Quiero destacar el trabajo colaborativo como una de las principales ventajas que nos brinda esta modalidad para que el aprendizaje sea de una manera más fácil de asimilar, logrando el apoyo y las ayudas en el desarrollo de las actividades permitiendo que la autorregulación en los procesos cada vez sea mejor y que aprender sea cada día la forma de entender de manera virtual.
     Puedo concluir que he logrado los propósitos hasta el momento, creciendo cada vez más en conocimientos llevándolos  a la práctica al mismo tiempo y logrando que en cada una de las entregas y en el desarrollo de las guías los trabajos sean cada vez mejores me siento más motivado a continuar con esta meta.
ENSAYO FINAL. 
La Importancia de Controlar Actividades Delictivas Dentro del Transporte Publico
De todas las actividades que realizamos diariamente, la que abarca una de las principales funciones es utilizar los diferentes tipos de transporte público; ya sea  Transmilenio, alimentadores, las diversas rutas del SITP o taxis cuando deseamos rapidez, comodidad y tranquilidad en el momento de movilizarnos por la cuidad de Bogotá. Aunque es triste pensar que en esta actividad tan primordial para el desarrollo de nuestra vida diaria, actualmente estemos expuestos  a diversas situaciones que ponen en riesgo nuestra integridad física, mental y moral.
     En la ciudad de Bogotá hoy día se presentan continuamente situaciones de inseguridad en el transporte público, que van desde robos, riñas hasta acosos de tipo sexual; según un estudio realizado por la Cámara de Comercio de Bogotá “en términos de seguridad el 27,1% de los encuestados considero que la situación empeoro en Transmilenio, el 20,3%, dijo lo mismo sobre el transporte colectivo y el 2,7% coincide con la opinión con respecto al sitp”. (Redacción Bogotá el Tiempo, 2013).En este punto nos preguntamos ¿Cómo podemos mejorar esta situación?, ¿Depende solo del nivel de tolerancia y educación de la personas? O ¿solo el Gobierno puede darle un alto a esta situación con penalizaciones fuertes y coherentes?, por tal razón se debe buscar alternativas que ayuden a mitigar o solucionar todo este tipo de situaciones.
     Es importante mencionar que la política actual a la que se enfrenta la ciudad, donde todos se tiran la pelota de la problemática y que dada la tendencia del incremento de la inseguridad en el transporte público de la ciudad de Bogotá, surge la necesidad de implementar sistemas electrónicos que ayuden a mitigar y controlar los acontecimientos delictivos que afectan seriamente a los usuarios del servicio. El aprovechamiento de los avances tecnológicos nos abre grandes caminos en los cuales podemos implementar estrategias aplicables en las estructuras y sistemas actuales del transporte público.
     Desde hace poco se han evidenciado iniciativas por parte de diferentes funcionarios, los cuales buscan implementar estrategias electrónicas que nos den punto de partida al control de hechos delictivos y que pongan en riesgo la integridad de las personas. 
     Por ejemplo “El gerente de Transmilenio, Fernando Sanclemente, admitió que este sistema de transporte masivo tiene importantes problemas de seguridad que, por orden del alcalde de Bogotá, Gustavo Petro, trata de solucionarlos.
     En entrevista con Caracol Radio dijo que se están haciendo esfuerzos para reforzar los sistemas de seguridad, pero 550 uniformados son insuficientes para todos los requerimientos de Transmilenio.
     Señaló que con 715 jóvenes de Misión Bogotá se trabaja en orientar a los ciudadanos y ayudar a la prevención.
      Además, se está fortaleciendo el sistema de cámaras de vigilancia en los portales y las estaciones, y se avanza en un plan para incorporar cámaras en todos los articulados”. (Caracol Radio. 2013). Aunque la instalación de cámaras sin un monitores adecuado sería ineficiente. 
     Otra base que apoya nuestra tesis es el PROYECTO DE ACUERDO No. 149 DE 2011, Por el cual se promueve la implementación de un sistema tecnológico de seguridad en el Servicio de Transporte Público Individual de Pasajeros en el Distrito             
     Capital, menciona “Inicialmente, Instalación de un sistema de rastreo y ubicación inmediata del vehículo mediante tecnología GPS, que permita localizar y rastrear los vehículos taxi en la Capital. Este sistema contaría con dos botones de pánico, uno para el usuario y otro para el conductor del taxi. La ubicación de estos botones se dispondría en sitios de fácil acceso para los dos, de tal manera que sean operados cuando alguno de ellos se sienta en situación de riesgo. El sistema también podrá contar con un sistema de audio y cámaras que se accionarían a través de los botones de pánico o en eventos de interés como cambios bruscos de velocidad, apertura de puertas, o los que se consideren pertinentes” (Alcaldía de Bogotá, 2011). Se presenta el proyecto pero después de más de dos años no se evidencian resultados.
     También El Concejal Santisteban presenta proyecto de acuerdo para mejorar seguridad de taxistas y pasajeros del transporte público de Bogotá, donde “sugiere implementar en Bogotá un discreto pero moderno sistema móvil, que realice grabación digital de video, compuesto por cámaras instaladas dentro de los vehículos con captura de imágenes en tiempo real, complementado con botones de pánico tanto para el conductor como para el usuario. Propone, además, la instalación en cada vehículo de un sistema de rastreo satelital, que en los taxis contaría con tres botones de pánico.
     Este método tecnológico ya ha sido implementado en diversas ciudades del mundo, en países como China, Rusia, España, Inglaterra, Brasil, Australia, Argentina y Ecuador, país último que financió en su totalidad el Estado”. (Espinosa L. 2014). Acoplar estas estrategias mejoraría la perspectiva del país considerablemente.
     Es de conocimiento general que día a día la inseguridad en el transporte público va en un aumento considerable, las noticias sobre hechos delictivos se nos presentan y preocupan cada mañana al salir de nuestras casas, el vivir pensando que en cualquier momento a alguno de nuestros familiares e inclusive a nosotros mismos se nos vea envueltos en estas situaciones genera una gran incomodidad con los diferentes servicios de transporte; razón por la cual se propone la instalación y monitoreo mediante sistemas electrónicos que controlen y brinden estrategias de solución y reducción de la inseguridad actual.  
     Por último podemos concluir que con la implementación de estos sistemas electrónicos, además de controlar los hechos delictivos brindando tranquilidad al usuario, también generamos una herramienta de apoyo para los diferentes entes de control y prevención, dígase policía, bomberos y ambulancias entre otros. Aunque funcionarios presenten estas propuestas, la estructuración de una idea de negocio referente a la solución de esta problemática se puede considerar una excelente alternativa de implementación de la idea de negocio.  

sábado, 8 de marzo de 2014

EVIDENCIA DE PARTICIPACIÓN EN EL E-PORTAFOLIO.

EVIDENCIA DE PARTICIPACIÓN EN EL E-PORTAFOLIO.


REFLEXIÓN.

 

REFLEXIÓN 

Para el aprendizaje autónomo es necesario consolidar las herramientas y las aplicaciones que  permitan, que el método de estudio sea de manera diferente pero que a su vez brinden un gran soporte, el cual podamos aprovechar e interactuar con las mismas logrando interiorizar el aprendizaje. 
Puedo concluir que es necesario aplicar los conocimientos que hemos desarrollado en este proceso, por que de esta manera aprendemos a desempeñarnos de forma activa y efectiva y activa en nuestro ambiente.