- Mayor aplicacion de Software (excel, word, access, etc)
- Ademas seria una buena instancia participar de distintos seminarios donde se aprendan nuevas herramientas y estar a la vanguardia.
Muchas Gracias
thanks
Merci
martes, 12 de julio de 2011
VIVIR HOGAR
Empresas Vivir Hogar
Integrantes:
Carla Cerda
Gustavo Chamorro
Direccion del Sitio Web:
vivir-hogar.blogspot.com
Integrantes:
Carla Cerda
Gustavo Chamorro
Direccion del Sitio Web:
vivir-hogar.blogspot.com
martes, 7 de junio de 2011
EMPRESA TRANSTEL
Empresa chilena fundada en 1999, dedicada a la prestación de servicios y desarrollo de soluciones para los procesos de negocio móviles de empresas. Integramos y desarrollamos soluciones de captura y transmisión inalámbrica de datos en línea.
Nuestra experiencia en el tema, nos ha permitido adquirir un conocimiento suficiente para desarrollar soluciones que representan, en un alto porcentaje, a la gran mayoría de las empresas dedicadas a la comercialización de productos que operan en el mercado. No obstante lo anterior, sabemos que cada una de ellas tiene un proceso particular de ventas, una política propia de precios y negociación, por lo que hemos diseñado una solución altamente adaptable a los requerimientos particulares de cada cliente.
Nuestro objetivo constante es ofrecer al mercado servicios y soluciones móviles que contribuyan significativamente al aumento de la productividad y eficiencia de las fuerzas móviles, así como también a la reducción de los costos de los procesos operativos propios y relacionados en la cadena de valor.
SERVICIOS
Nuestro servicio consiste en trasladar información en línea desde dispositivos móviles hacia los sistemas centrales del cliente y vice-versa, con la correspondiente certificación y confirmación de cada transacción en ambos extremos.
Los sistemas y aplicaciones utilizados son desarrollos propios, cuya principal característica es la flexibilidad, lo que permite una rápida adaptación a las necesidades de los clientes, tanto en la funcionalidad móvil, como en la intefaz con sus sistemas centrales.
La publicación en páginas WEB de cada una de las transacciones, permite el monitoreo y control de la gestión que estan realizando los profesionales móviles en forma inmediata.
Automatización de Fuerzas de Venta
Automatización de Despachos
Facturación Electrónica
Cobranza y Recaudación
Medios de Pago Electrónico
Facing Móvil
RedelPro
Redelgas
Nuestra experiencia en el tema, nos ha permitido adquirir un conocimiento suficiente para desarrollar soluciones que representan, en un alto porcentaje, a la gran mayoría de las empresas dedicadas a la comercialización de productos que operan en el mercado. No obstante lo anterior, sabemos que cada una de ellas tiene un proceso particular de ventas, una política propia de precios y negociación, por lo que hemos diseñado una solución altamente adaptable a los requerimientos particulares de cada cliente.
Nuestro objetivo constante es ofrecer al mercado servicios y soluciones móviles que contribuyan significativamente al aumento de la productividad y eficiencia de las fuerzas móviles, así como también a la reducción de los costos de los procesos operativos propios y relacionados en la cadena de valor.
SERVICIOS
Nuestro servicio consiste en trasladar información en línea desde dispositivos móviles hacia los sistemas centrales del cliente y vice-versa, con la correspondiente certificación y confirmación de cada transacción en ambos extremos.
Los sistemas y aplicaciones utilizados son desarrollos propios, cuya principal característica es la flexibilidad, lo que permite una rápida adaptación a las necesidades de los clientes, tanto en la funcionalidad móvil, como en la intefaz con sus sistemas centrales.
La publicación en páginas WEB de cada una de las transacciones, permite el monitoreo y control de la gestión que estan realizando los profesionales móviles en forma inmediata.
Automatización de Fuerzas de Venta
Automatización de Despachos
Facturación Electrónica
Cobranza y Recaudación
Medios de Pago Electrónico
Facing Móvil
RedelPro
Redelgas
Software Libre
El software libre (en inglés free software, aunque esta denominación también se confunde a veces con "gratis" por la ambigüedad del término en el idioma inglés) es la denominación del software que respeta la libertad de los usuarios sobre su producto adquirido y, por tanto, una vez obtenido puede ser usado, copiado, estudiado, modificado y redistribuido libremente. Según la Free Software Foundation, el software libre se refiere a la libertad de los usuarios para ejecutar, copiar, distribuir, estudiar, modificar el software y distribuirlo modificado.
El software libre suele estar disponible gratuitamente, o al precio de costo de la distribución a través de otros medios; sin embargo no es obligatorio que sea así, por lo tanto no hay que asociar software libre a "software gratuito" (denominado usualmente freeware), ya que, conservando su carácter de libre, puede ser distribuido comercialmente ("software comercial"). Análogamente, el "software gratis" o "gratuito" incluye en ocasiones el código fuente; no obstante, este tipo de software no es libre en el mismo sentido que el software libre, a menos que se garanticen los derechos de modificación y redistribución de dichas versiones modificadas del programa.
Tampoco debe confundirse software libre con "software de dominio público". Éste último es aquel software que no requiere de licencia, pues sus derechos de explotación son para toda la humanidad, porque pertenece a todos por igual. Cualquiera puede hacer uso de él, siempre con fines legales y consignando su autoría original. Este software sería aquel cuyo autor lo dona a la humanidad o cuyos derechos de autor han expirado, tras un plazo contado desde la muerte de este, habitualmente 70 años. Si un autor condiciona su uso bajo una licencia, por muy débil que sea, ya no es del dominio público.
VENTAJAS
*Bajo costo de adquisición: Se trata de un software económico ya que permite un ahorro de grandes cantidades en la adquisición de las licencias.
*Innovación tecnológica: esto se debe a que cada usuario puede aportar sus conocimientos y su experiencia y así decidir de manera conjunta hacia donde se debe dirigir la evolución y el desarrollo del software. Este es un gran avance en la tecnología mundial.
*Independencia del proveedor: al disponer del código fuente, se garantiza una independencia del proveedor que hace que cada empresa o particular pueda seguir contribuyendo al desarrollo y los servicios del software. *
*>Escrutinio público: esto hace que la corrección de errores y la mejora del producto se lleven a cabo de manera rápida y eficaz por cada uno de los usuarios que lleguen a utilizar el producto.
*Adaptación del software: esta cualidad resulta de gran utilidad para empresas e industrias específicas que necesitan un software personalizado para realizar un trabajo específico y con el software libre se puede realizar y con costes mucho más razonables.
*Lenguas: aunque el software se cree y salga al mercado en una sola lengua, el hecho de ser software libre facilita en gran medida su traducción y localización para que usuarios de diferentes partes del mundo puedan aprovechar estos beneficios.
IMPACTOS
Los impactos del software libre, y las principales nuevas perspectivas que permite, son los siguientes:
*Aprovechamiento más adecuado de los recursos: muchas aplicaciones utilizadas o promovidas por las administraciones públicas son también utilizadas por otros sectores de la sociedad.
*Fomento de la industria local: una de las mayores ventajas del software libre es la posibilidad de desarrollar industria local de software.
*Independencia del proveedor: es obvio que una organización preferirá depender de un mercado en régimen de competencia que de un solo proveedor que puede imponer las condiciones en que proporciona su producto.
*Adaptación a las necesidades exactas: en el caso del software libre, la adaptación puede hacerse con mucha mayor facilidad, y lo que es más importante, sirviéndose de un mercado con competencia, si hace falta contratarla.
*Escrutinio público de seguridad: para una Administración Pública poder garantizar que sus sistemas informáticos hacen sólo lo que está previsto que hagan es un requisito fundamental y, en muchos estados, un requisito legal.
*Disponibilidad a largo plazo: muchos datos que manejan las administraciones y los programas que sirven para calcularlos han de estar disponibles dentro de decenas de años.
Algunos estudios apuntan al software libre como un factor clave para aumentar la competitividad en la Unión Europea.
El software libre suele estar disponible gratuitamente, o al precio de costo de la distribución a través de otros medios; sin embargo no es obligatorio que sea así, por lo tanto no hay que asociar software libre a "software gratuito" (denominado usualmente freeware), ya que, conservando su carácter de libre, puede ser distribuido comercialmente ("software comercial"). Análogamente, el "software gratis" o "gratuito" incluye en ocasiones el código fuente; no obstante, este tipo de software no es libre en el mismo sentido que el software libre, a menos que se garanticen los derechos de modificación y redistribución de dichas versiones modificadas del programa.
Tampoco debe confundirse software libre con "software de dominio público". Éste último es aquel software que no requiere de licencia, pues sus derechos de explotación son para toda la humanidad, porque pertenece a todos por igual. Cualquiera puede hacer uso de él, siempre con fines legales y consignando su autoría original. Este software sería aquel cuyo autor lo dona a la humanidad o cuyos derechos de autor han expirado, tras un plazo contado desde la muerte de este, habitualmente 70 años. Si un autor condiciona su uso bajo una licencia, por muy débil que sea, ya no es del dominio público.
VENTAJAS
*Bajo costo de adquisición: Se trata de un software económico ya que permite un ahorro de grandes cantidades en la adquisición de las licencias.
*Innovación tecnológica: esto se debe a que cada usuario puede aportar sus conocimientos y su experiencia y así decidir de manera conjunta hacia donde se debe dirigir la evolución y el desarrollo del software. Este es un gran avance en la tecnología mundial.
*Independencia del proveedor: al disponer del código fuente, se garantiza una independencia del proveedor que hace que cada empresa o particular pueda seguir contribuyendo al desarrollo y los servicios del software. *
*>Escrutinio público: esto hace que la corrección de errores y la mejora del producto se lleven a cabo de manera rápida y eficaz por cada uno de los usuarios que lleguen a utilizar el producto.
*Adaptación del software: esta cualidad resulta de gran utilidad para empresas e industrias específicas que necesitan un software personalizado para realizar un trabajo específico y con el software libre se puede realizar y con costes mucho más razonables.
*Lenguas: aunque el software se cree y salga al mercado en una sola lengua, el hecho de ser software libre facilita en gran medida su traducción y localización para que usuarios de diferentes partes del mundo puedan aprovechar estos beneficios.
IMPACTOS
Los impactos del software libre, y las principales nuevas perspectivas que permite, son los siguientes:
*Aprovechamiento más adecuado de los recursos: muchas aplicaciones utilizadas o promovidas por las administraciones públicas son también utilizadas por otros sectores de la sociedad.
*Fomento de la industria local: una de las mayores ventajas del software libre es la posibilidad de desarrollar industria local de software.
*Independencia del proveedor: es obvio que una organización preferirá depender de un mercado en régimen de competencia que de un solo proveedor que puede imponer las condiciones en que proporciona su producto.
*Adaptación a las necesidades exactas: en el caso del software libre, la adaptación puede hacerse con mucha mayor facilidad, y lo que es más importante, sirviéndose de un mercado con competencia, si hace falta contratarla.
*Escrutinio público de seguridad: para una Administración Pública poder garantizar que sus sistemas informáticos hacen sólo lo que está previsto que hagan es un requisito fundamental y, en muchos estados, un requisito legal.
*Disponibilidad a largo plazo: muchos datos que manejan las administraciones y los programas que sirven para calcularlos han de estar disponibles dentro de decenas de años.
Algunos estudios apuntan al software libre como un factor clave para aumentar la competitividad en la Unión Europea.
martes, 31 de mayo de 2011
martes, 3 de mayo de 2011
Inteligencia Espiritual
La inteligencia espiritual no es un monopolio de las religiones, es un patrimonio del hombre.
La inteligencia espiritual relaciona el espíritu y la materia, se ocupa de la trascendencia, de lo sagrado, de los comportamientos virtuosos: perdón, gratitud, humildad y compasión, de comprender que somos parte de un todo con el cual necesitamos estar en contacto.
Algunos lo hacen orando, otros asumiendo su responsabilidad social, practicando las leyes espirituales del amor, paz, felicidad. Son los que mejoran la calidad de sus vidas.
Si el intelecto se olvida de la compañía del espíritu, degrada el medio ambiente, las creencias, la familia; es decir aquello que más importa. Hoy que la educación descuida la inteligencia espiritual está creando autómatas altamente capacitados. Para que la tecnología se humanice debe congeniar con la fuente. El espíritu individual y social se nutren, la enfermedad del espíritu se paga, la bancarrota espiritual precede a la quiebra económica.
El quiebre espiritual se produce cuando todo tiene precio pero ya nada tiene valor.
Capital y responsabilidad social, cooperación, dimensión ética, fraternidad, solidaridad, son factores críticos. Si el 80% de la riqueza está en manos del 20% de la gente, hay que apuntar a cómo terminar con esa desigualdad, la injusticia, la pobreza, y la marginalidad.
Prigogine se rebeló con contra la idea de una naturaleza pasiva, sujeta a leyes deterministas y atemporales. Einstein dijo "Dios no juega a los dados", para Prigogine nada es definitivo. Aunque el universo aparece como terminado, existen sin embargo, otros muchos posibles.
El futuro no está escrito, tenemos autoconciencia y la capacidad de crear el porvenir. Con la atención bien dirigida producimos la energía, con la intención la transformamos en lo que deseamos obtener. Cualquier cosa crece o se marchita según cómo se la atiende, así la intención programa su realización. La inteligencia espiritual se fundamenta en principios verdaderos y permanentes y se materializa cuando las buenas ideas se llevan a la práctica.
La fuerza interior espiritual. Hay que trabajar con uno mismo para que la voluntad llegue más lejos que la inteligencia. Primero encontremos nuestra misión, luego consultemos con ella, sin limitarnos a la mera interpretación sensorial. Mis pensamientos crean mi mundo, me alejaré de lo que hago sin querer, y sembraré la semilla de lo que quiero ser, confiando en mi capacidad, en mis propósitos y superando mis limitaciones.
Coeficientes encadenados. El CI -coeficiente intelectual- mide la capacidad de resolver problemas, el CE, emocional, la posibilidad de automotivarnos y de motivar, el CES ( coeficiente de inteligencia espiritual) cómo nos relacionamos con el todo y con los principios universales. El CES tiene la fortaleza del porqué, el CI y el CCR ( coeficiente de creatividad) sugieren el qué hacer, la visión. El cómo hacer, implica la disciplina del CEJ - coeficiente de ejecución-, el CE es el Quantum de la pasión. ¿ Cómo convertir espíritu en materia?
Centrada en la misión la inteligencia espiritual orienta a las demás. Nacemos con un potencial: ante cada estímulo, un espacio de libertad precede a la respuesta, la que mejora percibiendo lo que otros no ven. Si los valores controlan la conducta, los principios controlan sus consecuencias. El coeficiente de inteligencia espiritual suma la integridad de sostener los principios primordiales, el hacer y cumplir con las promesas, el escuchar y seguir la voz de la conciencia.
Para quitar el chaleco de fuerza que traba el potencial humano, se precisan conductores: Claridad en el querer. Compromiso con el trabajo y no con el dinero que sólo compra la satisfacción. Adaptación de la acción al talento y a los objetivos. Operar con sistemas y recursos aptos para cumplir con la misión. Sinergia: el coro armónico con los demás.
¿Debo hacerlo? es la pregunta que pone en marcha a la inteligencia espiritual. Somos libres para elegir nuestras acciones, lo que no podremos nunca es evitar sus consecuencias.
La inteligencia espiritual relaciona el espíritu y la materia, se ocupa de la trascendencia, de lo sagrado, de los comportamientos virtuosos: perdón, gratitud, humildad y compasión, de comprender que somos parte de un todo con el cual necesitamos estar en contacto.
Algunos lo hacen orando, otros asumiendo su responsabilidad social, practicando las leyes espirituales del amor, paz, felicidad. Son los que mejoran la calidad de sus vidas.
Si el intelecto se olvida de la compañía del espíritu, degrada el medio ambiente, las creencias, la familia; es decir aquello que más importa. Hoy que la educación descuida la inteligencia espiritual está creando autómatas altamente capacitados. Para que la tecnología se humanice debe congeniar con la fuente. El espíritu individual y social se nutren, la enfermedad del espíritu se paga, la bancarrota espiritual precede a la quiebra económica.
El quiebre espiritual se produce cuando todo tiene precio pero ya nada tiene valor.
Capital y responsabilidad social, cooperación, dimensión ética, fraternidad, solidaridad, son factores críticos. Si el 80% de la riqueza está en manos del 20% de la gente, hay que apuntar a cómo terminar con esa desigualdad, la injusticia, la pobreza, y la marginalidad.
Prigogine se rebeló con contra la idea de una naturaleza pasiva, sujeta a leyes deterministas y atemporales. Einstein dijo "Dios no juega a los dados", para Prigogine nada es definitivo. Aunque el universo aparece como terminado, existen sin embargo, otros muchos posibles.
El futuro no está escrito, tenemos autoconciencia y la capacidad de crear el porvenir. Con la atención bien dirigida producimos la energía, con la intención la transformamos en lo que deseamos obtener. Cualquier cosa crece o se marchita según cómo se la atiende, así la intención programa su realización. La inteligencia espiritual se fundamenta en principios verdaderos y permanentes y se materializa cuando las buenas ideas se llevan a la práctica.
La fuerza interior espiritual. Hay que trabajar con uno mismo para que la voluntad llegue más lejos que la inteligencia. Primero encontremos nuestra misión, luego consultemos con ella, sin limitarnos a la mera interpretación sensorial. Mis pensamientos crean mi mundo, me alejaré de lo que hago sin querer, y sembraré la semilla de lo que quiero ser, confiando en mi capacidad, en mis propósitos y superando mis limitaciones.
Coeficientes encadenados. El CI -coeficiente intelectual- mide la capacidad de resolver problemas, el CE, emocional, la posibilidad de automotivarnos y de motivar, el CES ( coeficiente de inteligencia espiritual) cómo nos relacionamos con el todo y con los principios universales. El CES tiene la fortaleza del porqué, el CI y el CCR ( coeficiente de creatividad) sugieren el qué hacer, la visión. El cómo hacer, implica la disciplina del CEJ - coeficiente de ejecución-, el CE es el Quantum de la pasión. ¿ Cómo convertir espíritu en materia?
Centrada en la misión la inteligencia espiritual orienta a las demás. Nacemos con un potencial: ante cada estímulo, un espacio de libertad precede a la respuesta, la que mejora percibiendo lo que otros no ven. Si los valores controlan la conducta, los principios controlan sus consecuencias. El coeficiente de inteligencia espiritual suma la integridad de sostener los principios primordiales, el hacer y cumplir con las promesas, el escuchar y seguir la voz de la conciencia.
Para quitar el chaleco de fuerza que traba el potencial humano, se precisan conductores: Claridad en el querer. Compromiso con el trabajo y no con el dinero que sólo compra la satisfacción. Adaptación de la acción al talento y a los objetivos. Operar con sistemas y recursos aptos para cumplir con la misión. Sinergia: el coro armónico con los demás.
¿Debo hacerlo? es la pregunta que pone en marcha a la inteligencia espiritual. Somos libres para elegir nuestras acciones, lo que no podremos nunca es evitar sus consecuencias.
Física Cuantica
La física cuántica, también conocida como mecánica ondulatoria, es la rama de la física que estudia el comportamiento de la materia cuando las dimensiones de ésta son tan pequeñas, en torno a 1.000 átomos, que empiezan a notarse efectos como la imposibilidad de conocer con exactitud la posición de una partícula, o su energía, o conocer simultáneamente su posición y velocidad, sin afectar a la propia partícula (descrito según el principio de incertidumbre de Heisenberg).
Surgió a lo largo de la primera mitad del siglo XX en respuesta a los problemas que no podían ser resueltos por medio de la física clásica.
Los dos pilares de esta teoría son:
• Las partículas intercambian energía en múltiplos enteros de una cantidad mínima posible, denominado quantum (cuanto) de energía.
• La posición de las partículas viene definida por una función que describe la probabilidad de que dicha partícula se halle en tal posición en ese instante.
Ratificación Experimental
El hecho de que la energía se intercambie de forma discreta se puso de relieve por hechos experimentales, inexplicables con las herramientas de la mecánica clásica, como los siguientes:
Según la Física Clásica, la energía radiada por un cuerpo negro, objeto que absorbe toda la energía que incide sobre él, era infinita, lo que era un desastre. Esto lo resolvió Max Plank mediante la cuantización de la energía, es decir, el cuerpo negro tomaba valores discretos de energía cuyos paquetes mínimos denominó “quantum”. Este cálculo era, además, consistente con la ley de Wien (que es un resultado de la termodinámica, y por ello independiente de los detalles del modelo empleado). Según esta última ley, todo cuerpo negro irradia con una longitud de onda (energía) que depende de su temperatura.
La dualidad onda corpúsculo, también llamada onda partícula, resolvió una aparente paradoja, demostrando que la luz y la materia pueden, a la vez, poseer propiedades de partícula y propiedades ondulatorias. Actualmente se considera que la dualidad onda - partícula es un "concepto de la mecánica cuántica según el cual no hay diferencias fundamentales entre partículas y ondas: las partículas pueden comportarse como ondas y viceversa".
El tamaño medio de un átomo es de una diez millonésima de milímetro, es decir, un millón de átomos situados en fila constituirían el grosor de un cabello humano …
Aplicaciones de la Teoría Cuántica
El marco de aplicación de la Teoría Cuántica se limita, casi exclusivamente, a los niveles atómico, subatómico y nuclear, donde resulta totalmente imprescindible. Pero también lo es en otros ámbitos, como la electrónica (en el diseño de transistores, microprocesadores y todo tipo de componentes electrónicos), en la física de nuevos materiales, (semiconductores y superconductores), en la física de altas energías, en el diseño de instrumentación médica (láseres, tomógrafos, etc.), en la criptografía y la computación cuánticas, y en la Cosmología teórica del Universo temprano.
Un nuevo concepto de información, basado en la naturaleza cuántica de las partículas elementales, abre posibilidades inéditas al procesamiento de datos. La nueva unidad de información es el qubit (quantum bit), que representa la superposición de 1 y 0, una cualidad imposible en el universo clásico que impulsa una criptografía indescifrable, detectando, a su vez, sin esfuerzo, la presencia de terceros que intentaran adentrarse en el sistema de transmisión. La otra gran aplicación de este nuevo tipo de información se concreta en la posibilidad de construir un ordenador cuántico, que necesita de una tecnología más avanzada que la criptografía, en la que ya se trabaja, por lo que su desarrollo se prevé para un futuro más lejano.
La teleportación de hombres, aunque en un futuro lejano, es una de las aplicaciones más atractivas de la mecánica cuántica… En la medicina, la teoría cuántica es utilizada en campos tan diversos como la cirugía láser, o la exploración radiológica. En el primero, son utilizados los sistemas láser, que aprovechan la cuantificanción energética de los orbitales nucleares para producir luz monocromática, entre otras característcias. En el segundo, la resonancia magnética nuclear permite visualizar la forma de de algunos tejidos al ser dirigidos los electrones de algunas sustancias corporales hacia la fuente del campo magnético en la que se ha introducido al paciente.
Otra de las aplicaciones de la mecánica cuántica es la que tiene que ver con su propiedad inherente de la probabilidad. La Teoría Cuántica nos habla de la probabilidad de que un suceso dado acontezca en un momento determinado, no de cuándo ocurrirá ciertamente el suceso en cuestión.
Cualquier suceso, por muy irreal que parezca, posee una probabilidad de que suceda, como el hecho de que al lanzar una pelota contra una pared ésta pueda traspasarla. Aunque la probabilidad de que esto sucediese sería infinitamente pequeña, podría ocurrir perfectamente.
La teleportación de los estados cuánticos (qubits) es una de las aplicaciones más innovadoras de la probabilidad cuántica, si bien parecen existir limitaciones importantes a lo que se puede conseguir en principio con dichas técnicas. En 2001, un equipo suizo logró teleportar un fotón una distancia de 2 km, posteriormente, uno austriaco logró hacerlo con un rayo de luz (conjunto de fotones) a una distancia de 600 m., y lo último ha sido teleportar un átomo, que ya posee masa, a 5 micras de distancia...
Surgió a lo largo de la primera mitad del siglo XX en respuesta a los problemas que no podían ser resueltos por medio de la física clásica.
Los dos pilares de esta teoría son:
• Las partículas intercambian energía en múltiplos enteros de una cantidad mínima posible, denominado quantum (cuanto) de energía.
• La posición de las partículas viene definida por una función que describe la probabilidad de que dicha partícula se halle en tal posición en ese instante.
Ratificación Experimental
El hecho de que la energía se intercambie de forma discreta se puso de relieve por hechos experimentales, inexplicables con las herramientas de la mecánica clásica, como los siguientes:
Según la Física Clásica, la energía radiada por un cuerpo negro, objeto que absorbe toda la energía que incide sobre él, era infinita, lo que era un desastre. Esto lo resolvió Max Plank mediante la cuantización de la energía, es decir, el cuerpo negro tomaba valores discretos de energía cuyos paquetes mínimos denominó “quantum”. Este cálculo era, además, consistente con la ley de Wien (que es un resultado de la termodinámica, y por ello independiente de los detalles del modelo empleado). Según esta última ley, todo cuerpo negro irradia con una longitud de onda (energía) que depende de su temperatura.
La dualidad onda corpúsculo, también llamada onda partícula, resolvió una aparente paradoja, demostrando que la luz y la materia pueden, a la vez, poseer propiedades de partícula y propiedades ondulatorias. Actualmente se considera que la dualidad onda - partícula es un "concepto de la mecánica cuántica según el cual no hay diferencias fundamentales entre partículas y ondas: las partículas pueden comportarse como ondas y viceversa".
El tamaño medio de un átomo es de una diez millonésima de milímetro, es decir, un millón de átomos situados en fila constituirían el grosor de un cabello humano …
Aplicaciones de la Teoría Cuántica
El marco de aplicación de la Teoría Cuántica se limita, casi exclusivamente, a los niveles atómico, subatómico y nuclear, donde resulta totalmente imprescindible. Pero también lo es en otros ámbitos, como la electrónica (en el diseño de transistores, microprocesadores y todo tipo de componentes electrónicos), en la física de nuevos materiales, (semiconductores y superconductores), en la física de altas energías, en el diseño de instrumentación médica (láseres, tomógrafos, etc.), en la criptografía y la computación cuánticas, y en la Cosmología teórica del Universo temprano.
Un nuevo concepto de información, basado en la naturaleza cuántica de las partículas elementales, abre posibilidades inéditas al procesamiento de datos. La nueva unidad de información es el qubit (quantum bit), que representa la superposición de 1 y 0, una cualidad imposible en el universo clásico que impulsa una criptografía indescifrable, detectando, a su vez, sin esfuerzo, la presencia de terceros que intentaran adentrarse en el sistema de transmisión. La otra gran aplicación de este nuevo tipo de información se concreta en la posibilidad de construir un ordenador cuántico, que necesita de una tecnología más avanzada que la criptografía, en la que ya se trabaja, por lo que su desarrollo se prevé para un futuro más lejano.
La teleportación de hombres, aunque en un futuro lejano, es una de las aplicaciones más atractivas de la mecánica cuántica… En la medicina, la teoría cuántica es utilizada en campos tan diversos como la cirugía láser, o la exploración radiológica. En el primero, son utilizados los sistemas láser, que aprovechan la cuantificanción energética de los orbitales nucleares para producir luz monocromática, entre otras característcias. En el segundo, la resonancia magnética nuclear permite visualizar la forma de de algunos tejidos al ser dirigidos los electrones de algunas sustancias corporales hacia la fuente del campo magnético en la que se ha introducido al paciente.
Otra de las aplicaciones de la mecánica cuántica es la que tiene que ver con su propiedad inherente de la probabilidad. La Teoría Cuántica nos habla de la probabilidad de que un suceso dado acontezca en un momento determinado, no de cuándo ocurrirá ciertamente el suceso en cuestión.
Cualquier suceso, por muy irreal que parezca, posee una probabilidad de que suceda, como el hecho de que al lanzar una pelota contra una pared ésta pueda traspasarla. Aunque la probabilidad de que esto sucediese sería infinitamente pequeña, podría ocurrir perfectamente.
La teleportación de los estados cuánticos (qubits) es una de las aplicaciones más innovadoras de la probabilidad cuántica, si bien parecen existir limitaciones importantes a lo que se puede conseguir en principio con dichas técnicas. En 2001, un equipo suizo logró teleportar un fotón una distancia de 2 km, posteriormente, uno austriaco logró hacerlo con un rayo de luz (conjunto de fotones) a una distancia de 600 m., y lo último ha sido teleportar un átomo, que ya posee masa, a 5 micras de distancia...
martes, 26 de abril de 2011
Clusters
El término cluster se aplica a los conjuntos o conglomerados de computadoras construidos mediante la utilización de componentes de hardware comunes y que se comportan como si fuesen una única computadora.
Hoy en día desempeñan un papel importante en la solución de problemas de las ciencias, las ingenierías y del comercio moderno.
La tecnología de clusters ha evolucionado en apoyo de actividades que van desde aplicaciones de supercómputo y software de misiones críticas, servidores web y comercio electrónico, hasta bases de datos de alto rendimiento, entre otros usos.
El cómputo con clusters surge como resultado de la convergencia de varias tendencias actuales que incluyen la disponibilidad de microprocesadores económicos de alto rendimiento y redes de alta velocidad, el desarrollo de herramientas de software para cómputo distribuido de alto rendimiento, así como la creciente necesidad de potencia computacional para aplicaciones que la requieran.
Simplemente, un cluster es un grupo de múltiples ordenadores unidos mediante una red de alta velocidad, de tal forma que el conjunto es visto como un único ordenador, más potente que los comunes de escritorio.
Los clusters son usualmente empleados para mejorar el rendimiento y/o la disponibilidad por encima de la que es provista por un solo computador típicamente siendo más económico que computadores individuales de rapidez y disponibilidad comparables.
De un cluster se espera que presente combinaciones de los siguientes servicios:
-Alto rendimiento
-Alta disponibilidad
-Balanceo de carga
-Escalabilidad
La construcción de los ordenadores del cluster es más fácil y económica debido a su flexibilidad: pueden tener todos la misma configuración de hardware y sistema operativo (cluster homogéneo), diferente rendimiento pero con arquitecturas y sistemas operativos similares (cluster semi-homogéneo), o tener diferente hardware y sistema operativo (cluster heterogéneo), lo que hace más fácil y económica su construcción.
Para que un cluster funcione como tal, no basta solo con conectar entre sí los ordenadores, sino que es necesario proveer un sistema de manejo del cluster, el cual se encargue de interactuar con el usuario y los procesos que corren en él para optimizar el funcionamiento.
Hoy en día desempeñan un papel importante en la solución de problemas de las ciencias, las ingenierías y del comercio moderno.
La tecnología de clusters ha evolucionado en apoyo de actividades que van desde aplicaciones de supercómputo y software de misiones críticas, servidores web y comercio electrónico, hasta bases de datos de alto rendimiento, entre otros usos.
El cómputo con clusters surge como resultado de la convergencia de varias tendencias actuales que incluyen la disponibilidad de microprocesadores económicos de alto rendimiento y redes de alta velocidad, el desarrollo de herramientas de software para cómputo distribuido de alto rendimiento, así como la creciente necesidad de potencia computacional para aplicaciones que la requieran.
Simplemente, un cluster es un grupo de múltiples ordenadores unidos mediante una red de alta velocidad, de tal forma que el conjunto es visto como un único ordenador, más potente que los comunes de escritorio.
Los clusters son usualmente empleados para mejorar el rendimiento y/o la disponibilidad por encima de la que es provista por un solo computador típicamente siendo más económico que computadores individuales de rapidez y disponibilidad comparables.
De un cluster se espera que presente combinaciones de los siguientes servicios:
-Alto rendimiento
-Alta disponibilidad
-Balanceo de carga
-Escalabilidad
La construcción de los ordenadores del cluster es más fácil y económica debido a su flexibilidad: pueden tener todos la misma configuración de hardware y sistema operativo (cluster homogéneo), diferente rendimiento pero con arquitecturas y sistemas operativos similares (cluster semi-homogéneo), o tener diferente hardware y sistema operativo (cluster heterogéneo), lo que hace más fácil y económica su construcción.
Para que un cluster funcione como tal, no basta solo con conectar entre sí los ordenadores, sino que es necesario proveer un sistema de manejo del cluster, el cual se encargue de interactuar con el usuario y los procesos que corren en él para optimizar el funcionamiento.
martes, 12 de abril de 2011
TOM PETERS
Thomas J. Peters nació el 7 de Noviembre del 1942 en Baltimore. Estudió ingeniería civil en Cornell University y después economía en Stanford University donde ha obtenido un M.B.A. y Ph.D. En 2004 ha recibido un doctorado honorario de la Universidad NThomas J. Peters nació el 7 de Noviembre del 1942 en Baltimore. Estudió ingeniería civil en Cornell University y después economía en Stanford University donde ha obtenido un M.B.A. y Ph.D. En 2004 ha recibido un doctorado honorario de la Universidad Nacional de Management de Moscúacional de Management de Moscú.
ALGUNAS PUBLICACIONES
*Del Caos a la Excelencia
*Reinventando la Excelencia
*50 Claves para gestionar un centro de servicios profesionales
Principales Aportes
Sus principales aportaciones se pueden ver en la búsqueda de la excelencia así como la administración del cambio caótico. • Estableció 45 preceptos que deben de ser seguidos por los administradores a cualquier nivel, entre los cuáles se incluye:
1. Revolucionar la calidad
2. Ser servicial
3. Buscar la satisfacción del cliente
4. Hacer organizaciones internacionales
5. Escuchar las demandas de consumidores, proveedores.
6. Convertir a la manufactura en la primera herramienta de comercialización.
7. Desarrollar estrategias innovadoras
8. Dar reconocimiento a los ganadores etc.
ALGUNAS PUBLICACIONES
*Del Caos a la Excelencia
*Reinventando la Excelencia
*50 Claves para gestionar un centro de servicios profesionales
Principales Aportes
Sus principales aportaciones se pueden ver en la búsqueda de la excelencia así como la administración del cambio caótico. • Estableció 45 preceptos que deben de ser seguidos por los administradores a cualquier nivel, entre los cuáles se incluye:
1. Revolucionar la calidad
2. Ser servicial
3. Buscar la satisfacción del cliente
4. Hacer organizaciones internacionales
5. Escuchar las demandas de consumidores, proveedores.
6. Convertir a la manufactura en la primera herramienta de comercialización.
7. Desarrollar estrategias innovadoras
8. Dar reconocimiento a los ganadores etc.
jueves, 7 de abril de 2011
Investigacion sobre tecnologias de investigacion
1.- Hacer una busqueda de textos (Qué son las tecnologias de Informacion)
2.- Buscar un PPT de qué es la tecnologias de investigacion
3.- Buscar un video de Tecnologias de Informacion
(1) La tecnología de la información (TI) se entiende como "aquellas herramientas y métodos empleados para recabar, retener, manipular o distribuir información. La tecnología de la información se encuentra generalmente asociada con las computadoras y las tecnologías afines aplicadas a la toma de decisiones (Bologna y Walsh, 1997: 1).
2.- Buscar un PPT de qué es la tecnologias de investigacion
3.- Buscar un video de Tecnologias de Informacion
Definiciones:
(1) La tecnología de la información (TI) se entiende como "aquellas herramientas y métodos empleados para recabar, retener, manipular o distribuir información. La tecnología de la información se encuentra generalmente asociada con las computadoras y las tecnologías afines aplicadas a la toma de decisiones (Bologna y Walsh, 1997: 1).
PPT
Tecnologias De Informacion
View more presentations from serbolov
Video Tecnologias de la Informacion
martes, 5 de abril de 2011
ERP
¿QUÉ ES UN ERP?
Es un sistema de gestión de la información estructurado para satisfacer la demanda de soluciones de gestión empresarial, basado en el ofrecimiento de una solución completa que permite a las empresas evaluar, implementar y gestionar más facilmente su negocio. Las soluciones ERP se caracterizan por su modularidad, integración de la información (dato único), universalidad, estandarización e interfaces con otras aplicaciones. Son sistemas abiertos y en la mayoría de los casos multiplataforma.
¿PORQUE ERP?
Las tendencias comerciales actuales y futuras obligan a las empresas a ser cada vez más competitivas. Para ser competitiva es necesario que una compañía tenga optimizado e integrado sus flujos internos de información y sus relaciones comerciales externas, y así conseguir objetivos básicos como son las mejoras de la productividad, la calidad, el servicio al cliente y la reducción de costes. Las tecnologías de la información han permitido, en gran medida, la consecución de dichos objetivos. En esta área, podemos reseñar la aportación de los ERP y las ventajas del comercio electrónico o intercambio electrónico de información con asociados comerciales y clientes finales a través de proyectos EDI, proyectos basados en aplicaciones WEB y de la mensajería
BENEFICIOS DE UN ERP
Disponer de una solución integrada para muchas de las funciones de la compañía u Garantía de una actualización continua y más inmediata de la aplicación a las necesidades del negocio y la reducción de los costes fijos Y el máximo beneficio de la implantación de un ERP solamente se obtiene cuando todas las aplicaciones de la compañía están totalmente integradas, incluido sus proyectos de comercio electrónico, y cuando esta integración se realiza en el menor plazo de tiempo posible.
jueves, 31 de marzo de 2011
Singularity University
La Universidad de la Singularidad es una institución académica en Silicon Valley cuya finalidad es «reunir, educar e inspirar a un grupo de dirigentes que se esfuercen por comprender y facilitar el desarrollo exponencial de las tecnologías y promover, aplicar, orientar y guiar estas herramientas para resolver los grandes desafíos de la humanidad». Su nombre hace referencia a la llamada singularidad tecnológica. Se ubica en el Centro de Investigación Ames de la NASA en Mountain View, California y está dirigida por Ray Kurzweil.
De forma similar a la International Space University, la Universidad de la Singularidad no está prevista como una universidad acreditada, sino que tiene la intención de complementar las universidades tradicionales. Se ofrecerá un curso de nueve semanas que se iniciará en junio de 2009 y tendrá un coste de 25.000 dólares.
La clase inaugural de 2009 fue limitada a 40 estudiantes. Uno de los fundadores de la universidad, Peter Diamandis, ha afirmado que han recibido «más de 1.200 candidatos» para las primeros 40 plazas. Está previsto que en 2010 acepten para el curso de postgrado a 120 estudiantes.
La escuela está patrocinada por Google y la NASA, y apoyada por IDEO, International Space University, KurzweilAI.net, Singularity Hub y X PRIZE Foundation, así como por parte de varios particulares. Científicos y pensadores como Vint Cerf, George Smoot, Larry Smarr, Chris DiBona, Tom Byers, Will Wright y Paul Saffo han apoyado públicamente la Universidad. En palabras de Kurzweil:
De forma similar a la International Space University, la Universidad de la Singularidad no está prevista como una universidad acreditada, sino que tiene la intención de complementar las universidades tradicionales. Se ofrecerá un curso de nueve semanas que se iniciará en junio de 2009 y tendrá un coste de 25.000 dólares.
La clase inaugural de 2009 fue limitada a 40 estudiantes. Uno de los fundadores de la universidad, Peter Diamandis, ha afirmado que han recibido «más de 1.200 candidatos» para las primeros 40 plazas. Está previsto que en 2010 acepten para el curso de postgrado a 120 estudiantes.
La escuela está patrocinada por Google y la NASA, y apoyada por IDEO, International Space University, KurzweilAI.net, Singularity Hub y X PRIZE Foundation, así como por parte de varios particulares. Científicos y pensadores como Vint Cerf, George Smoot, Larry Smarr, Chris DiBona, Tom Byers, Will Wright y Paul Saffo han apoyado públicamente la Universidad. En palabras de Kurzweil:
«En cuanto una rama del conocimiento se convierte en una ciencia de la información, como ha ocurrido con la medicina tras la secuencia del genoma, se produce un avance de forma exponencial: dos, cuatro, ocho, dieciséis... (...) Eso está empezando a pasar con otros campos como la energía. En 20 años, viviremos en un mundo muy distinto: tenemos que llegar preparados a la singularidad».
Ray Kurzweil
Es un inventor estadounidense, además de músico, empresario, escritor y científico especializado en Ciencias de la Computación e Inteligencia Artificial
Experto tecnólogo de sistemas y de Inteligencia Artificial y eminente futurista. Es actualmente presidente de la empresa informática Kurzweil Technologies, que se dedica a elaborar dispositivos electrónicos de conversación máquina-humano y aplicaciones para discapacitados y es canciller e impulsor de la Universidad de la Singularidad de Silicon Valley.
jueves, 24 de marzo de 2011
Diagnostico y evaluacion de lo que he aprendido y conocido en materia de informatica y computacion en mi carrera
Las herramientas que me ha proporcionado la Universidad y me han desarrollado basicamente:
Actualmente estoy interesado en aumentar mi nivel informatico para mejorar trabajos, aprender de plataformas virtuales formales y de este modo estar preparado para enfretar el mundo laboral.
- Microsoft Excel- Catedra de Computacion
- Microsoft Word- Catedra de Computacion
Ambos Sistemas me han ayudado para la gestion de archivos basicos, desarrollar plantillas con datos importantes, simplificar el trabajo manual por uno mas eficiente.
- Software Win Qsb- Catedra Optimizacion de los recursos
Fue una herramienta que investigamos junto a compañeros de catedra para simplificar el trabajo manual de los ejercicios de asignacion de recursos, medios de transportes, Pert.
Actualmente estoy interesado en aumentar mi nivel informatico para mejorar trabajos, aprender de plataformas virtuales formales y de este modo estar preparado para enfretar el mundo laboral.
Catedra Microeconomía
La microeconomía es una parte de la economía que estudia el comportamiento económico de agentes individuales, como son los consumidores, las empresas, los trabajadores e inversores; así como de los mercados. Considera las decisiones que toma cada uno para cumplir ciertos objetivos propios. Los elementos básicos en los que se centra el análisis microeconómico son los bienes, los precios, los mercados y los agentes económicos. La gran mayoría de los modelos que se exponen en el presente artículo tienen como base la existencia de un marco económico y social de economía descentralizada, en el que existe propiedad privada.
martes, 22 de marzo de 2011
¿Qué es Moodle?
Moodle es una plataforma web para la creación de cursos y entornos de aprendizaje online que se distribuye como Software Libre (Open Source). Actualmente, Moodle se está convirtiendo en el sistema número 1 en el Mundo para la gestión de cursos (Learning Management System - LMS) que ayuda a las organizaciones a crear comunidades de aprendizaje constructivista en línea.
Biografia
Soy Gustavo Chamorro, estudiante de Ingenieria Comercial 5to Año. Actualmente trabajo en Proyectos de FACEA en la Universidad Central. Mi infancia fue compartida geograficamente. Nacido en Santiago, luego emigré a Molina Septima Region. Estuve algunos años y luego retorne a Santiago.
En mi tiempo Libre me gusta ir al gimnasio, participar en una Iglesia Cristiana y viajar a la 7ma Region, Molina. Trato de disfrutar cada momento y potenciar mis habilidades. A futuro me gustaria especializarme en areas de Gestion de Personas y desarrollar una fundacion en ayuda a la sociedad.
En mi tiempo Libre me gusta ir al gimnasio, participar en una Iglesia Cristiana y viajar a la 7ma Region, Molina. Trato de disfrutar cada momento y potenciar mis habilidades. A futuro me gustaria especializarme en areas de Gestion de Personas y desarrollar una fundacion en ayuda a la sociedad.
Suscribirse a:
Comentarios (Atom)







