Corren ríos de tinta sobre la información que existe dentro de la Administración y que puede -y debe- ser liberada para su reutilización por terceros. Ahí está toda la información sobre el estado de las ciudades para su uso en aplicaciones de optimización del tráfico, la información padronal (convenientemente anonimizada) para los estudios de geo-marketing, información sobre el transporte público, información sobre los museos para realizar visitas virtuales,...
Pero se habla muchísimo menos, por no decir nada, de toda la información que la Administración Pública necesitará para poder desempeñar su labor en un futuro no muy lejano.
Las operadoras
Las operadoras de telefonía tienen una valiosísima información que a buen seguro comenzarán a rentabilizar como servicio más pronto que tarde: la geolocalización masiva de sus clientes.
Hay informes que aseguran que un usuario medio no se separa de su teléfono móvil más de cinco metros en ningún momento del día, ningún día del año. Esto, unido a su descomunal penetración -por encima del 100%-, permite crear casos de uso clarísimos para terceros y también para la Administración.
Uno muy simple: La medición de la densidad del tráfico. No hay muchas dudas de que hay un atasco en la carretera cuando se detecta que hay un elevado número de smartphones en una posición fija. Es una forma infinitamente más barata de detectar la densidad del tráfico frente a llenar los márgenes de las autopistas de sensores inteligentes.
Esta misma georreferencia (sin necesidad de identificar a personas concretas para no entrar en problemas de privacidad) permite contar automáticamente los asistentes a una manifestación, identificar el riesgo potencial de avalanchas en un evento de masas, conocer el flujo de personas por las ciudades para un mejor dimensionamiento del transporte público, conocer los movimientos de los turistas por la ciudad,...
Las entidades financieras
La información de utilización de tarjetas de crédito (anonimizada, conociendo solo importe y lugar) también puede ser enormemente relevante para las Administraciones. Permite conocer con un nivel de detalle sin precedentes la salud comercial de las ciudades o el impacto económico de eventos deportivos, culturales o de negocios. El BBVA ha hecho algunos experimentos muy interesantes sobre ésto en el sitio web www.mwcimpact.com.
La información de la utilización de las tarjetas permitiría a las Administraciones medir el retorno económico por cada euro invertido en la promoción o patrocinio de los diferentes eventos de negocio y con ello centrarse en aquellos realmente interesantes.
Para la Administración sería una información muy valiosa y para la Banca supondría rizar el rizo: rentabilizar la información sobre las operaciones de pago con tarjeta que ya son de por sí negocio.
Los propios ciudadanos
Pero quizá la vía más clara pero menos explorada para obtener información sea el propio ciudadano mediante la creación de aplicaciones adhoc para sus teléfonos móviles.
Con la aplicación adecuada y tras ganarse la confianza y empatizar con el ciudadano, se puede obtener información realmente valiosa. Por ejemplo, se puede tener un exhaustivo mapa del nivel de ruido de la ciudad mediante la capacidad de los smartphones para identificar y filtrar el sonido ambiente durante una conversación. Se pueden hacer otras cosas mucho más sofisticadas como detectar carreteras en mal estado en base a la posición GPS y el acelerómetro del smartphone, que identifica cambios bruscos de posición. O incluso se puede medir la intensidad lumínica de las farolas en tiempo real basándose en algo tan simple como medición de la retroiluminación de la pantalla del móvil al usarlo en un lugar con poca luz.
Y las aplicaciones prácticas no pararán de crecer a medida que se combinan diferentes fuentes de información del móvil, al tiempo que se incrementan los sensores variopintos incluidos en los smartphones. Es probable que en un futuro cercano una gran parte de las fuentes de información del concepto smartcity descanse sobre tecnologías en las que el ciudadano es el centro indiscutible.
Finalizando
En el caso de la información de las operadoras o la banca tan solo hay que salvar pequeños detalles sobre la privacidad, garantizando que toda la información es completamente anónima. Tan pronto como esta información esté disponible como un servicio surgirán conceptos como las tarjetas de fidelidad virtuales, estudios de mercado a la carta, verdaderos asistentes virtuales,... y todo en tiempo real.
La información proveniente de los ciudadanos es probablemente la más barata y sencilla de obtener pero para ello el ciudadano debe confiar en la Administración, confiar en que ésta no usará su información para otros fines diferentes de los indicados. Hay que dar con la aplicación adecuada y ganarse su confianza garantizando que la información jamás será utilizada para usos diferentes de los propuestos. Esta confianza se gana con muchos años de esfuerzo y se pierde en un suspiro...
www.tonsofit.com
Exhumando cadáveres informáticos
sábado, 5 de octubre de 2013
Hay quien cree que las aplicaciones son muy parecidas a los seres vivos: nacen, crecen, se desarrollan y mueren. Es fácil buscar la analogía entre los ciclos vitales básicos y los estados por los que pasa cualquier aplicación informática. Lo que no nos cuentan es lo que pasa cuando las aplicaciones pasan a mejor vida.
Y según parece, lo que ocurre dentro de los servidores es muy similar a lo que ocurría en el Viejo Oeste, donde los cadáveres podían estar durante horas o días tirados en la calle tras un tiroteo.
Cuando una aplicación deja de tener sentido, bien porque la empresa ha abandonado una línea de negocio o simplemente porque la aplicación ha sido sustituida por otra nueva, es habitual que nadie se acuerde de que se deja un muerto, en forma de activo de TI, tirado por la calle.
Durante una primera etapa no se le presta mucha atención porque todos los cariños van dirigidos a la nueva aplicación. Pasado ese primer momento, cuando teóricamente habría tiempo suficiente para hacer el levantamiento del cadáver y enterrarlo adecuadamente, ocurre que ya pocos se acuerdan de ella, todos pasan a su lado impasibles, como si hubiera formado parte del paisaje desde siempre. En cualquier caso, es claro que nadie ve alicientes en dedicar tiempo a esa vieja aplicación que ya no sirve a nadie. Esto mismo, en menor medida, aplica también al código muerto que hay dentro aplicaciones vivas.
Un poco de tiempo para revisar lo inservible
Es cierto que este problema solo lo sufren aquellas empresas con un cierto bagaje en el mercado, no tanto porque las nuevas aplicaciones se gestionen mejor, sino porque no han tenido tiempo suficiente para dejar morir -o matar- algunas de esas aplicaciones. Pero tras treinta años de desarrollo de aplicaciones, lo que se encuentra bajo las alfombras puede ser impresionante, con ratios de código muerto y aplicaciones sin uso por encima del 40 por ciento de las líneas de código.
Tener todos esos objetos no válidos implica sobrecostes en los procesos de evolución tecnológica, en la gestión de proyectos de mantenimiento y en los proyectos de migración de plataformas. Solo por eso ya merece la pena embarcarse en proyectos de renovación tecnológica.
www.tonsofit.com
Y según parece, lo que ocurre dentro de los servidores es muy similar a lo que ocurría en el Viejo Oeste, donde los cadáveres podían estar durante horas o días tirados en la calle tras un tiroteo.
Cuando una aplicación deja de tener sentido, bien porque la empresa ha abandonado una línea de negocio o simplemente porque la aplicación ha sido sustituida por otra nueva, es habitual que nadie se acuerde de que se deja un muerto, en forma de activo de TI, tirado por la calle.
Durante una primera etapa no se le presta mucha atención porque todos los cariños van dirigidos a la nueva aplicación. Pasado ese primer momento, cuando teóricamente habría tiempo suficiente para hacer el levantamiento del cadáver y enterrarlo adecuadamente, ocurre que ya pocos se acuerdan de ella, todos pasan a su lado impasibles, como si hubiera formado parte del paisaje desde siempre. En cualquier caso, es claro que nadie ve alicientes en dedicar tiempo a esa vieja aplicación que ya no sirve a nadie. Esto mismo, en menor medida, aplica también al código muerto que hay dentro aplicaciones vivas.
Un poco de tiempo para revisar lo inservible
Es cierto que este problema solo lo sufren aquellas empresas con un cierto bagaje en el mercado, no tanto porque las nuevas aplicaciones se gestionen mejor, sino porque no han tenido tiempo suficiente para dejar morir -o matar- algunas de esas aplicaciones. Pero tras treinta años de desarrollo de aplicaciones, lo que se encuentra bajo las alfombras puede ser impresionante, con ratios de código muerto y aplicaciones sin uso por encima del 40 por ciento de las líneas de código.
Tener todos esos objetos no válidos implica sobrecostes en los procesos de evolución tecnológica, en la gestión de proyectos de mantenimiento y en los proyectos de migración de plataformas. Solo por eso ya merece la pena embarcarse en proyectos de renovación tecnológica.
www.tonsofit.com
Y al fin llovió
martes, 20 de agosto de 2013
Le había pasado a Twitter, a Facebook y a WhatsApp. Incluso hace apenas cinco días le ocurría a los servicios en la nube de Microsoft.
Pero parecía que en esto de la disponibilidad Google estaba por encima del bien y del mal.
Su inmejorable nivel de disponibilidad ha hecho que la caída de sus sitios web, aunque apenas ha durado cinco minutos, se haya convertido en noticia de portada. Tal es la confianza de los usuarios en el buscador que las redes sociales se llenaron de comentarios de supuestos problemas en su red WiFi doméstica. Dudaron de su punto de acceso WiFi antes de sospechar que el problema estaba en los servicios de Google.
Hechos como estos nos deben llevar a reflexionar sobre dos cuestiones.
Primera. La dependencia del buscador durante la navegación por la web es enorme. Los usuarios avanzados generalmente escriben la URL del sitio web al que quieren navegar. Sin embargo, una vez que los navegadores han unificado las cajas de texto de búsqueda y navegación (jugada maestra de Google), muchos usuarios escriben el nombre del lugar al que quieren navegar y pulsan intro para que sea el buscador (habitualmente Google) quien les facilite el link al sitio web.
De este modo, si el buscador no funciona muchos usuarios no saben llegar a los sitios web pese a que éstos estén absolutamente online.
Muchas personas deambulaban perdidas durante la caída de los servicios de búsqueda ya que ni tan siquiera podían usar Google para saber por qué no funcionaba Google.
Segunda. El nivel de dependencia de los servicios de Google es descomunal. Los datos que aportan los principales medidores de tráfico son unánimes al indicar que el tráfico de Internet cayó un 40 por ciento durante los problemas de disponibilidad de Google.
La UE sancionó a Microsoft por imponer Internet Explorer en Windows cuando su sistema operativo tenía una cuota de mercado por encima del 90 por ciento. Ahora es Google quien tiene una cuota aplastante en los servicios de búsqueda e impone su navegador, Chrome, en todos los teléfonos con Android. Es decir, domina de forma indiscutible tanto en el buscador como en el navegador usado para llegar a él.
Es casi seguro que el comisario europeo de Competencia ya está afilando el lápiz para hacer caja...
www.tonsofit.com
Pero parecía que en esto de la disponibilidad Google estaba por encima del bien y del mal.
Su inmejorable nivel de disponibilidad ha hecho que la caída de sus sitios web, aunque apenas ha durado cinco minutos, se haya convertido en noticia de portada. Tal es la confianza de los usuarios en el buscador que las redes sociales se llenaron de comentarios de supuestos problemas en su red WiFi doméstica. Dudaron de su punto de acceso WiFi antes de sospechar que el problema estaba en los servicios de Google.
Hechos como estos nos deben llevar a reflexionar sobre dos cuestiones.
Primera. La dependencia del buscador durante la navegación por la web es enorme. Los usuarios avanzados generalmente escriben la URL del sitio web al que quieren navegar. Sin embargo, una vez que los navegadores han unificado las cajas de texto de búsqueda y navegación (jugada maestra de Google), muchos usuarios escriben el nombre del lugar al que quieren navegar y pulsan intro para que sea el buscador (habitualmente Google) quien les facilite el link al sitio web.
De este modo, si el buscador no funciona muchos usuarios no saben llegar a los sitios web pese a que éstos estén absolutamente online.
Muchas personas deambulaban perdidas durante la caída de los servicios de búsqueda ya que ni tan siquiera podían usar Google para saber por qué no funcionaba Google.
Segunda. El nivel de dependencia de los servicios de Google es descomunal. Los datos que aportan los principales medidores de tráfico son unánimes al indicar que el tráfico de Internet cayó un 40 por ciento durante los problemas de disponibilidad de Google.
Fuente: GoSquared.com |
Es casi seguro que el comisario europeo de Competencia ya está afilando el lápiz para hacer caja...
www.tonsofit.com
Censura a la pornografía en el Reino Unido. Seis charcos en los que pocearse.
jueves, 1 de agosto de 2013
Hace unos días el primer ministro británico anunciaba que su Gobierno tenía la intención de bloquear los contenidos para adultos en todas las conexiones a Internet y que estos contenidos solo estarían accesibles previa petición.
Conviene destacar que no se está proponiendo el bloqueo de contenidos regulados y penados legalmente, eso ya está prohibido por definición, sino de contenidos para adultos llevados a cabo por adultos y de forma absolutamente libre y consentida.
Por si no sabe los charcos en los que se está metiendo, ahí van algunos de ellos.
Primer charco: la pornografía puede ser reprobable moralmente pero no es ilegal. Una vez metidos en harina, algún productor de películas para adultos podría pedir, siguiendo el mismo argumento, la prohibición de revistas como Playboy o algunas otras bastante más explicitas. Incluso podrían solicitar que se aplique el mismo criterio a muchos periódicos por publicar una sección de anuncios por palabras que, como poco, raya lo soez. Hasta se podría plantear el encarcelamiento de algún dueño de gasolinera por exhibir DVDs con contenido para adultos en los estantes de las tiendas de carretera.
Segundo charco: Técnicamente es un brindis al Sol, prácticamente imposible de cumplir. Ya hay alternativas técnicas sobre plataformas sin ánimo de lucro que son tan simples de usar como configurar un proxy en el navegador. Un ejemplo es www.immunicity.org que permite cursar el tráfico sin dar información al censor de la página realmente solicitada por el navegador. Y habrá otras soluciones mucho más sofisticadas a medida que las anteriores se vayan contrarrestando, porque así ha sido siempre en la historia de Internet. Y si el principal objetivo de la protección son los jóvenes conviene destacar que generalmente tienen más conocimientos de TI que sus progenitores por lo que no les costará mucho saltarse el filtro tecnológico.
Tercer charco: Se ha decidido que quien gestione el filtro sea Huawei. El filtro provocará la existencia de un fichero de datos personales de nivel alto con las personas que desean acceder a contenidos para adultos. Y ese fichero será gestionado por una empresa china, lo que choca con otras medidas de los Gobiernos como la negativa de la CIA o el MI5 a utilizar PCs de Lenovo por la sospecha de que puedan contener puertas traseras para facilitar información a su Gobierno. China no destaca especialmente por la protección de los Derechos Humanos por lo que los ciudadanos británicos deberían mantener un cierto nivel de preocupación respecto a donde terminará su historial de navegación.
Cuarto charco: Limitar el acceso a contenidos que no son ilegales es censura ideológica. El Reino Unido se equipara a países como China con su Gran Muralla en la web, censurando cualquier contenido que se considere (que ellos consideren) no apropiado para sus súbditos. Y los ciudadanos ya hace mucho tiempo que ni son ni quieren ser súbditos (subdĭtus es el participio pasivo de subdĕre, someter, sometido).
Quinto charco: Debería empezar por fomentar unos valores y una cultura diferentes. No es compatible prohibir la pornografía en la Red con permitir anuncios en horario protegido que abiertamente hacen referencia al sexo aunque lo anunciado no guarde relación alguna. Hay casos evidentes en ciertas marcas de desodorante pero es que incluso los hay con productos bastante poco sexys como los detergentes o los dentífricos. Si quieren prohibir algo tal vez deberían empezar por limitar ese tipo de anuncios para fomentar unos valores diferentes en la sociedad que dicen proteger. Por cierto, este tipo de anuncios son casi siempre denigrantes para la mujer y lo único que ponen de manifiesto es la pobreza profesional de los publicistas que los crean.
Sexto charco: La moralina de quita y pon. Produce una similar reacción en la conciencia una imagen de sexo explícito que ver cuerpos brutalmente mutilados en cualquier telediario en prime time. Pueden comenzar por limitar ese tipo de imágenes o incluso las guerras que las originan.
Adelante, a ver lo que tardan en caerse del guindo. Solo espero que no se aficionen a la censura por estos lares.
www.tonsofit.com
Conviene destacar que no se está proponiendo el bloqueo de contenidos regulados y penados legalmente, eso ya está prohibido por definición, sino de contenidos para adultos llevados a cabo por adultos y de forma absolutamente libre y consentida.
Por si no sabe los charcos en los que se está metiendo, ahí van algunos de ellos.
Primer charco: la pornografía puede ser reprobable moralmente pero no es ilegal. Una vez metidos en harina, algún productor de películas para adultos podría pedir, siguiendo el mismo argumento, la prohibición de revistas como Playboy o algunas otras bastante más explicitas. Incluso podrían solicitar que se aplique el mismo criterio a muchos periódicos por publicar una sección de anuncios por palabras que, como poco, raya lo soez. Hasta se podría plantear el encarcelamiento de algún dueño de gasolinera por exhibir DVDs con contenido para adultos en los estantes de las tiendas de carretera.
Segundo charco: Técnicamente es un brindis al Sol, prácticamente imposible de cumplir. Ya hay alternativas técnicas sobre plataformas sin ánimo de lucro que son tan simples de usar como configurar un proxy en el navegador. Un ejemplo es www.immunicity.org que permite cursar el tráfico sin dar información al censor de la página realmente solicitada por el navegador. Y habrá otras soluciones mucho más sofisticadas a medida que las anteriores se vayan contrarrestando, porque así ha sido siempre en la historia de Internet. Y si el principal objetivo de la protección son los jóvenes conviene destacar que generalmente tienen más conocimientos de TI que sus progenitores por lo que no les costará mucho saltarse el filtro tecnológico.
Tercer charco: Se ha decidido que quien gestione el filtro sea Huawei. El filtro provocará la existencia de un fichero de datos personales de nivel alto con las personas que desean acceder a contenidos para adultos. Y ese fichero será gestionado por una empresa china, lo que choca con otras medidas de los Gobiernos como la negativa de la CIA o el MI5 a utilizar PCs de Lenovo por la sospecha de que puedan contener puertas traseras para facilitar información a su Gobierno. China no destaca especialmente por la protección de los Derechos Humanos por lo que los ciudadanos británicos deberían mantener un cierto nivel de preocupación respecto a donde terminará su historial de navegación.
Cuarto charco: Limitar el acceso a contenidos que no son ilegales es censura ideológica. El Reino Unido se equipara a países como China con su Gran Muralla en la web, censurando cualquier contenido que se considere (que ellos consideren) no apropiado para sus súbditos. Y los ciudadanos ya hace mucho tiempo que ni son ni quieren ser súbditos (subdĭtus es el participio pasivo de subdĕre, someter, sometido).
Quinto charco: Debería empezar por fomentar unos valores y una cultura diferentes. No es compatible prohibir la pornografía en la Red con permitir anuncios en horario protegido que abiertamente hacen referencia al sexo aunque lo anunciado no guarde relación alguna. Hay casos evidentes en ciertas marcas de desodorante pero es que incluso los hay con productos bastante poco sexys como los detergentes o los dentífricos. Si quieren prohibir algo tal vez deberían empezar por limitar ese tipo de anuncios para fomentar unos valores diferentes en la sociedad que dicen proteger. Por cierto, este tipo de anuncios son casi siempre denigrantes para la mujer y lo único que ponen de manifiesto es la pobreza profesional de los publicistas que los crean.
Sexto charco: La moralina de quita y pon. Produce una similar reacción en la conciencia una imagen de sexo explícito que ver cuerpos brutalmente mutilados en cualquier telediario en prime time. Pueden comenzar por limitar ese tipo de imágenes o incluso las guerras que las originan.
Adelante, a ver lo que tardan en caerse del guindo. Solo espero que no se aficionen a la censura por estos lares.
www.tonsofit.com
El Sol, el Mediterráneo y el coste de Internet
lunes, 22 de julio de 2013
Hace unos días, buscando información sobre la aportación al PIB por parte del sector tecnológico, tropecé con este interesante gráfico que muestra el tamaño del sector TIC en los países de la Unión Europea.
De él se pueden sacar conclusiones muy interesantes. Por ejemplo, se observa el tamaño de sector manufacturero de TIC en Finlandia o Suecia, seguramente gracias al tirón de compañías como Nokia o Siemens.
Se observa también como en los países más avanzados el sector de los servicios TIC es muy superior al de producción de bienes, algo que está en línea con lo esperado.
Por contra, el sector productivo destaca en países como Hungría, Rumanía o Malta donde los costes de mano de obra son más ventajosos. Hasta aquí, todo bastante razonable.
Pero hay un dato un tanto oculto que merece la pena poner de manifiesto: el de los países donde el subsector de Telecomunicaciones es superior a la suma de los otros tres subsectores.
Es decir, los países donde el tamaño de la barra roja es mayor que la suma de las otras tres barras.
Esto ocurre en muy pocos países del gráfico, entre ellos, Chipre, España y Grecia.
El sector de las Telecomunicaciones está conformado por el servicio a empresas y a particulares. La parte más relevante tiene que ver con el servicio a particulares dado el enorme mercado y la gran penetración de la banda ancha fija y, cada vez más, de la móvil en el mercado residencial.
Por tanto, la explicación más simplista del fenómeno vendría a decir que estos países se comunican mucho pero hacen poco. Para ver qué hay de cierto, analicemos cuatro posibles explicaciones a este fenómeno.
1. La explicación según un historiador
Los países bañados por el mediterráneo están fuertemente influenciados por las culturas de los grandes mercaderes fenicios, griegos y cartagineses. Estos pueblos destacaron por su enorme capacidad para hacer negocios con otros pueblos. Esto les obligaba a innovar y hacer uso intensivo de los medios de comunicación más avanzados del momento que, por aquella época, eran los barcos de vela. Con toda seguridad, hoy harían uso intensivo del teléfono, el correo electrónico y las redes sociales para comercializar sus productos.
Probablemente, sólo algo así podría explicar que Grecia sea el país de la Unión Europea con más teléfonos móviles por habitante con un ratio de 1,8 por persona. También destacan Italia y Portugal como segundo y tercero en este ranking. Curiosamente, dos de ellos están económicamente intervenidos y probablemente el tercero se ha salvado por ser too fat to fall.
2. La explicación según un antropólogo
No está claro el motivo pero es rigurosamente cierto que el Sol guarda relación con la necesidad y la forma de comunicación entre las personas. En general, se cumple la máxima de que los habitantes de los países más cercanos al ecuador, con más horas de Sol y luz, se juntan más al hablar e incluso, incomprensiblemente porque por lógica debería ser al revés, suben el volumen.
En los zocos de los países del norte de África los comerciantes hablan con un volumen muy elevado e incluso se tocan al hablar. Ambas cosas molestarían muchísimo a un noruego cuyo volumen de voz es menor y el espacio vital que mantiene con su interlocutor muy superior.
Esto podría explicar el mayor consumo de telecomunicaciones de los países del sur de Europa ya que estar en contacto telefónicamente sería la forma moderna y virtual de estar más cerca del interlocutor.
3. La explicación según un economista
Seguramente, un economista justificaría las diferencias de precios entre países tirando de la liberalización del mercado. Los mercados donde hay mayores costes, probablemente, son aquellos donde hay menos compañías en libre y sana competencia, sin monopolios de facto (asumiendo que los de derecho no son legales). Y para garantizar eso el regulador tiene mucho que decir.
Debe decidir los precios a los que los operadores con red propia deben alquilar parte de su red a otros operadores que únicamente se dedican a comercializar servicios por las redes de los primeros. En función del precio, las condiciones de alquiler y la obligatoriedad de ese alquiler se estará fomentando el desarrollo de una red propia frente a una red construida por unos pocos operadores y explotada por todos los demás. Por otra parte, reduciendo drásticamente el coste de las licencias se eliminarían las barreras de entrada a nuevos proveedores que podrían hacer aumentar la competencia.
Debe también legislar para impedir situaciones como la del coste de la itinerancia de datos entre países, algo en lo que, afortunadamente, parece que ya están trabajando. Hace tiempo que deberían haberse dado cuenta, tanto operadoras como reguladores, que con unos costes tan disparatados se desincentiva el servicio y cuando algo no incentiva no se contrata. Es una versión adaptada de la Curva de Laffer que, en el caso del roaming internacional, viene a recordarnos que existe un punto a partir del cual subir el precio genera menos facturación.
Del mismo modo, debe regular la posibilidad de las administraciones públicas para prestar servicios de acceso WiFi en zonas abiertas de las ciudades, algo complejo hoy en día por las restricciones impuestas y que, a buen seguro, permitiría añadir un competidor más al sector, obligando a un ajuste de tarifas.
En definitiva, el regulador debería velar por la existencia de una competencia real y efectiva que obligue a las empresas a ser más eficientes porque con ello aumenta la calidad del servicio y el precio es más atractivo para los usuarios.
Probablemente, el economista terminaría hablando sobre una mayor salud del mercado y, sobre todo, mejores órganos de regulación en los países donde el precio es más ventajoso. Por contra, menos salud y peor regulación donde los precios son más altos.
4. La explicación según un tecnólogo
Está quizá sea una variante de la anterior pero seguro que el tecnólogo añade algún matiz diferente.
El negocio de las telecomunicaciones sigue un modelo deficitario. Es decir, su coste, a igualdad de producto, es menor cada año. Los proveedores deben dar cada vez más caudal para poder mantener el precio.
La gráfica adjunta muestra el coste diario de la conexión a Internet en los países de la Unión, corrigiendo el importe en función del nivel de renta de cada país (PPA o PPP en terminología inglesa).
Casualidad o no, ahí vuelven a aparecer los mismos países (Chipre, España y Grecia), acompañados por Polonia, Letonia e Italia, como los lugares de la UE donde la banda ancha es más cara.
Esto podría justificar el aparente mayor consumo en telecomunicaciones de algunos países, no ya por mayor consumo en sí sino por mayor esfuerzo económico para realizar el mismo consumo.
Siendo malo en el entorno doméstico, lo es aún peor en el empresarial ya que un mayor coste de las comunicaciones merma la competitividad de las empresas en un servicio del que no pueden prescindir.
Como ejemplo, la conexión a Internet le cuesta entre dos y tres veces menos a una empresa británica que a una española.
Terminando
No sé si estas respuestas son correctas, si lo correcto es una mezcla de todas o alguna de ellas o incluso si hay alguna otra posible respuesta que justifica el fenómeno.
Creo que la justificación viene más de las respuestas del economista y el tecnólogo que de las del historiador y el antropólogo pero que cada cual se quede con la que prefiera.
www.tonsofit.com
PIB por subsectores TIC. Fuente: Eurostat |
Se observa también como en los países más avanzados el sector de los servicios TIC es muy superior al de producción de bienes, algo que está en línea con lo esperado.
Por contra, el sector productivo destaca en países como Hungría, Rumanía o Malta donde los costes de mano de obra son más ventajosos. Hasta aquí, todo bastante razonable.
Pero hay un dato un tanto oculto que merece la pena poner de manifiesto: el de los países donde el subsector de Telecomunicaciones es superior a la suma de los otros tres subsectores.
Es decir, los países donde el tamaño de la barra roja es mayor que la suma de las otras tres barras.
Esto ocurre en muy pocos países del gráfico, entre ellos, Chipre, España y Grecia.
El sector de las Telecomunicaciones está conformado por el servicio a empresas y a particulares. La parte más relevante tiene que ver con el servicio a particulares dado el enorme mercado y la gran penetración de la banda ancha fija y, cada vez más, de la móvil en el mercado residencial.
Por tanto, la explicación más simplista del fenómeno vendría a decir que estos países se comunican mucho pero hacen poco. Para ver qué hay de cierto, analicemos cuatro posibles explicaciones a este fenómeno.
1. La explicación según un historiador
Los países bañados por el mediterráneo están fuertemente influenciados por las culturas de los grandes mercaderes fenicios, griegos y cartagineses. Estos pueblos destacaron por su enorme capacidad para hacer negocios con otros pueblos. Esto les obligaba a innovar y hacer uso intensivo de los medios de comunicación más avanzados del momento que, por aquella época, eran los barcos de vela. Con toda seguridad, hoy harían uso intensivo del teléfono, el correo electrónico y las redes sociales para comercializar sus productos.
Probablemente, sólo algo así podría explicar que Grecia sea el país de la Unión Europea con más teléfonos móviles por habitante con un ratio de 1,8 por persona. También destacan Italia y Portugal como segundo y tercero en este ranking. Curiosamente, dos de ellos están económicamente intervenidos y probablemente el tercero se ha salvado por ser too fat to fall.
Suscripciones de telefonía móvil por cada 100 habitantes. Fuente: Eurostat |
2. La explicación según un antropólogo
No está claro el motivo pero es rigurosamente cierto que el Sol guarda relación con la necesidad y la forma de comunicación entre las personas. En general, se cumple la máxima de que los habitantes de los países más cercanos al ecuador, con más horas de Sol y luz, se juntan más al hablar e incluso, incomprensiblemente porque por lógica debería ser al revés, suben el volumen.
En los zocos de los países del norte de África los comerciantes hablan con un volumen muy elevado e incluso se tocan al hablar. Ambas cosas molestarían muchísimo a un noruego cuyo volumen de voz es menor y el espacio vital que mantiene con su interlocutor muy superior.
Esto podría explicar el mayor consumo de telecomunicaciones de los países del sur de Europa ya que estar en contacto telefónicamente sería la forma moderna y virtual de estar más cerca del interlocutor.
3. La explicación según un economista
Seguramente, un economista justificaría las diferencias de precios entre países tirando de la liberalización del mercado. Los mercados donde hay mayores costes, probablemente, son aquellos donde hay menos compañías en libre y sana competencia, sin monopolios de facto (asumiendo que los de derecho no son legales). Y para garantizar eso el regulador tiene mucho que decir.
Debe decidir los precios a los que los operadores con red propia deben alquilar parte de su red a otros operadores que únicamente se dedican a comercializar servicios por las redes de los primeros. En función del precio, las condiciones de alquiler y la obligatoriedad de ese alquiler se estará fomentando el desarrollo de una red propia frente a una red construida por unos pocos operadores y explotada por todos los demás. Por otra parte, reduciendo drásticamente el coste de las licencias se eliminarían las barreras de entrada a nuevos proveedores que podrían hacer aumentar la competencia.
Debe también legislar para impedir situaciones como la del coste de la itinerancia de datos entre países, algo en lo que, afortunadamente, parece que ya están trabajando. Hace tiempo que deberían haberse dado cuenta, tanto operadoras como reguladores, que con unos costes tan disparatados se desincentiva el servicio y cuando algo no incentiva no se contrata. Es una versión adaptada de la Curva de Laffer que, en el caso del roaming internacional, viene a recordarnos que existe un punto a partir del cual subir el precio genera menos facturación.
Del mismo modo, debe regular la posibilidad de las administraciones públicas para prestar servicios de acceso WiFi en zonas abiertas de las ciudades, algo complejo hoy en día por las restricciones impuestas y que, a buen seguro, permitiría añadir un competidor más al sector, obligando a un ajuste de tarifas.
En definitiva, el regulador debería velar por la existencia de una competencia real y efectiva que obligue a las empresas a ser más eficientes porque con ello aumenta la calidad del servicio y el precio es más atractivo para los usuarios.
Probablemente, el economista terminaría hablando sobre una mayor salud del mercado y, sobre todo, mejores órganos de regulación en los países donde el precio es más ventajoso. Por contra, menos salud y peor regulación donde los precios son más altos.
4. La explicación según un tecnólogo
Coste diario de la conexión en Paridad de Poder Adquisitivo. Fuente: Asociación de Internautas |
Está quizá sea una variante de la anterior pero seguro que el tecnólogo añade algún matiz diferente.
El negocio de las telecomunicaciones sigue un modelo deficitario. Es decir, su coste, a igualdad de producto, es menor cada año. Los proveedores deben dar cada vez más caudal para poder mantener el precio.
La gráfica adjunta muestra el coste diario de la conexión a Internet en los países de la Unión, corrigiendo el importe en función del nivel de renta de cada país (PPA o PPP en terminología inglesa).
Casualidad o no, ahí vuelven a aparecer los mismos países (Chipre, España y Grecia), acompañados por Polonia, Letonia e Italia, como los lugares de la UE donde la banda ancha es más cara.
Esto podría justificar el aparente mayor consumo en telecomunicaciones de algunos países, no ya por mayor consumo en sí sino por mayor esfuerzo económico para realizar el mismo consumo.
Siendo malo en el entorno doméstico, lo es aún peor en el empresarial ya que un mayor coste de las comunicaciones merma la competitividad de las empresas en un servicio del que no pueden prescindir.
Como ejemplo, la conexión a Internet le cuesta entre dos y tres veces menos a una empresa británica que a una española.
Terminando
No sé si estas respuestas son correctas, si lo correcto es una mezcla de todas o alguna de ellas o incluso si hay alguna otra posible respuesta que justifica el fenómeno.
Creo que la justificación viene más de las respuestas del economista y el tecnólogo que de las del historiador y el antropólogo pero que cada cual se quede con la que prefiera.
www.tonsofit.com
Acelerando el ciclo tecnológico
viernes, 7 de junio de 2013
Mira la foto de ahí al lado. Ahora vuelve a mirarla y responde a esta simple pregunta:
Sin duda, está absolutamente alejado de la experiencia de uso de lo que hoy consideramos un teléfono inteligente. Ya podemos olvidarnos de aplicaciones, de pantalla táctil, de un navegador de Internet mínimamente operativo, de mensajería más allá del SMS,... Probablemente, lo único que echaríamos de menos de él son sus 105 gramos de peso.
Acelerando el ciclo
Una de las cosas más increíble del mercado de smartphones -y por ósmosis de las tabletas- es que ha conseguido reducir a la mitad el plazo normal de un ciclo tecnológico.
En el mundo de los PCs el periodo de renovación tecnológica ha estado fijado desde siempre en 4 años y, aún con todo, no faltaban quienes criticaban que ese periodo forzaba a las compañías (y familias) a un enorme esfuerzo al tener que cambiar de PC aproximadamente en ese periodo de tiempo.
Ahora este periodo se ha reducido a la mitad o incluso menos pero sorprendentemente a nadie parece preocuparle. Los usuarios renuevan sus smartphones cada dos años o menos pese a que su coste no es muy diferente de lo que se paga por un PC. Con las tabletas ocurre algo similar aunque todavía no hay datos que sustenten esta idea ya que el grueso de ventas de estos dispositivos se ha producido en los dos o tres últimos años.
De fondo hay algo que no debemos perder de vista: asumiendo el axioma del 1-2-10, el smartphone es casi una extensión del cuerpo, algo muy cercano a nosotros. Sin embargo, un PC se percibe como algo más cercano a un electrodoméstico. Por eso, parece que no preocupa tanto invertir dinero en algo que es parte de nosotros frente a invertir en algo cercano a un frigorífico en la mente de los consumidores. La tableta parece estar a mitad de camino.
Las consecuencias
Reducir el plazo de renovación tecnológica a dos años tiene varias consecuencias que merece la pena analizar.
La primera, que me preocupa más bien poco, es que compañías como Apple o Samsung mantienen su descomunal capitalización bursátil en base a que ese plazo se consolide y consigan vender ingentes cantidades de dispositivos cada dos años. Si en algún momento este plazo vuelve al más tradicional de cuatro años sus ventas se resistirían de forma muy notable y con ello se valor bursátil (no su valor real) como compañías tecnológicas.
La segunda ya me preocupa un poco más. El coste en hardware se dispara si el periodo de depreciación de los activos se reduce a dos años ya que implica renovar el hardware en la mitad de tiempo de lo que se venía haciendo hasta ahora. Es decir, en el mismo plazo se duplica el coste de adquisición de dispositivos de usuario. Tal vez el BYOD pueda echar una mano a las empresas pero ese coste repercutirá en el ámbito doméstico.
La tercera es con diferencia la que más me preocupa. Si el periodo de renovación de los dispositivos de usuario se mantiene al ritmo de una oleada tecnológica anual o bienal, esto querría decir que la innovación en canales será muy superior a la actual. Y esto obliga a repensar muchísimo los proyectos de aplicaciones de gran tamaño si estos tienen una componente muy fuerte de interacción con los usuarios. Tal vez una estrategia de proyectos pequeños y más frecuentes sea más acertada.
La razón que me lleva a pensar de este modo es imaginar la situación de grandes proyectos de CRM lanzados hace apenas tres años. Probablemente, muchos de ellos no tengan en cuenta la interacción con los usuarios mediante Twitter, Facebook o incluso WhatsApp.
El tiempo dirá si la estrategia de ciclo tecnológico acelerado se consolida o es temporal. Apuesto por lo primero.
Enlaces relacionados:
› Tons of IT: De como la tecnología está cambiando los hábitos del trabajo
› Tons of IT: ¿Son compatibles la web y la televisión?
www.tonsofit.com
«¿Cuantos años crees que han pasado desde que este teléfono era uno de los top del mercado de móviles?»Probablemente pienses que un dispositivo de este tipo debe ser de hace mucho tiempo pero no, el E65 era uno de los modelos de gama alta a finales de 2007, hace apenas cinco años. Este teléfono fue uno de los primeros en ser considerado un smartphone.
Sin duda, está absolutamente alejado de la experiencia de uso de lo que hoy consideramos un teléfono inteligente. Ya podemos olvidarnos de aplicaciones, de pantalla táctil, de un navegador de Internet mínimamente operativo, de mensajería más allá del SMS,... Probablemente, lo único que echaríamos de menos de él son sus 105 gramos de peso.
Acelerando el ciclo
Una de las cosas más increíble del mercado de smartphones -y por ósmosis de las tabletas- es que ha conseguido reducir a la mitad el plazo normal de un ciclo tecnológico.
En el mundo de los PCs el periodo de renovación tecnológica ha estado fijado desde siempre en 4 años y, aún con todo, no faltaban quienes criticaban que ese periodo forzaba a las compañías (y familias) a un enorme esfuerzo al tener que cambiar de PC aproximadamente en ese periodo de tiempo.
Ahora este periodo se ha reducido a la mitad o incluso menos pero sorprendentemente a nadie parece preocuparle. Los usuarios renuevan sus smartphones cada dos años o menos pese a que su coste no es muy diferente de lo que se paga por un PC. Con las tabletas ocurre algo similar aunque todavía no hay datos que sustenten esta idea ya que el grueso de ventas de estos dispositivos se ha producido en los dos o tres últimos años.
De fondo hay algo que no debemos perder de vista: asumiendo el axioma del 1-2-10, el smartphone es casi una extensión del cuerpo, algo muy cercano a nosotros. Sin embargo, un PC se percibe como algo más cercano a un electrodoméstico. Por eso, parece que no preocupa tanto invertir dinero en algo que es parte de nosotros frente a invertir en algo cercano a un frigorífico en la mente de los consumidores. La tableta parece estar a mitad de camino.
Reducir el plazo de renovación tecnológica a dos años tiene varias consecuencias que merece la pena analizar.
La primera, que me preocupa más bien poco, es que compañías como Apple o Samsung mantienen su descomunal capitalización bursátil en base a que ese plazo se consolide y consigan vender ingentes cantidades de dispositivos cada dos años. Si en algún momento este plazo vuelve al más tradicional de cuatro años sus ventas se resistirían de forma muy notable y con ello se valor bursátil (no su valor real) como compañías tecnológicas.
La segunda ya me preocupa un poco más. El coste en hardware se dispara si el periodo de depreciación de los activos se reduce a dos años ya que implica renovar el hardware en la mitad de tiempo de lo que se venía haciendo hasta ahora. Es decir, en el mismo plazo se duplica el coste de adquisición de dispositivos de usuario. Tal vez el BYOD pueda echar una mano a las empresas pero ese coste repercutirá en el ámbito doméstico.
La tercera es con diferencia la que más me preocupa. Si el periodo de renovación de los dispositivos de usuario se mantiene al ritmo de una oleada tecnológica anual o bienal, esto querría decir que la innovación en canales será muy superior a la actual. Y esto obliga a repensar muchísimo los proyectos de aplicaciones de gran tamaño si estos tienen una componente muy fuerte de interacción con los usuarios. Tal vez una estrategia de proyectos pequeños y más frecuentes sea más acertada.
La razón que me lleva a pensar de este modo es imaginar la situación de grandes proyectos de CRM lanzados hace apenas tres años. Probablemente, muchos de ellos no tengan en cuenta la interacción con los usuarios mediante Twitter, Facebook o incluso WhatsApp.
El tiempo dirá si la estrategia de ciclo tecnológico acelerado se consolida o es temporal. Apuesto por lo primero.
Enlaces relacionados:
› Tons of IT: De como la tecnología está cambiando los hábitos del trabajo
› Tons of IT: ¿Son compatibles la web y la televisión?
La informática se nos jubila
domingo, 28 de abril de 2013
Quien más y quien menos todo el mundo conoce a un médico jubilado, a un abogado jubilado, a un administrativo jubilado, a un trabajador de la construcción jubilado,… incluso hay quien dice que conoce a un dependiente de un bazar chino jubilado. Pero, ¿alguien conoce a un informático jubilado?
Y no es que sea un expediente X ni que los informáticos cuando se jubilan se escondan en la vieja madriguera del sotobosque –Félix R. de la Fuente dixit-, es una simple cuestión matemática.
Las facultades comenzaron a inundar el mercado de licenciados en informática –hoy ingenieros- a finales de los años 70 o principios de los 80 según de qué universidad se trate. En ese momento, las grandes corporaciones y administraciones públicas comenzaban a mecanizar sus procesos mediante las TIC y el mercado absorbía toda la oferta existente de profesionales.
Esos ilusionados muchachos tienen hoy entre 55 y 60 años. Es decir, están a entre cinco y diez años (si nadie lo remedia) de comenzar una nueva y presumiblemente menos estresada vida.
Esta irrupción en el mercado de la rara avis de los “informáticos jubilados” tendrá algunas consecuencias que merece la pena analizar.
Cambia el perfil del profesional
En esos años 80 la capacidad de procesamiento era un bien muy escaso. Los procesos se analizaban y documentaban de forma exhaustiva y los programas se escribían en papel. Para cuando se llegaba a la máquina, se cargaba el código de las aplicaciones y se probaba su correcto funcionamiento, una gran parte del trabajo ya estaba hecho.
Sin embargo, hace ya mucho tiempo que la disponibilidad de máquina no es un problema. Cualquier profesional o aficionado tiene en su casa la capacidad de cálculo suficiente para plantear la aplicación que desee, por intensivo que sea el proceso. Quizá por eso, la fase de análisis puede ser en cierto modo relegado frente a una mayor presencia del ensayo-error. De hecho, las fronteras entre analista, analista-programador y programador son cada vez más difusas.
No digo que ahora se hagan mejor las cosas, tampoco lo contrario, pero sí creo que el perfil del profesional ha cambiado, pasando de una necesidad de análisis sin ambigüedades, un requisito grabado a fuego en estos profesionales, a un modelo mucho más basado en el ensayo-error y el diseño basado en prototipos. Nota: lo sé, generalizar acarrea errores.
El ideal es aprovechar estos años de convivencia generacional y llegar a conjugar lo mejor de los dos tipos: garantizar que todo el conocimiento funcional adquirido durante los últimos 30 años no se pierda y que las plataformas tecnológicas evolucionen acorde a los tiempos.
Evolución de las tecnologías en los datacenters
Una nueva verdad científica no suele imponerse convenciendo a sus oponentes sino más bien porque sus oponentes desaparecen paulatinamente y son sustituidos por una nueva generación familiarizada desde el principio con la nueva verdad, Max Planck.
Es previsible pensar que algunas tecnologías que llevan años fuera de las facultades y que como norma no han sido incorporadas en las empresas creadas en los últimos diez o quince años, puedan comenzar un suave, o tal vez no tan suave, declive.
Los datacenters de las grandes compañías y administraciones públicas, justamente las que comenzaron con la informática a principios de los años 80, están plagadas de tecnologías que no son de aplicación cuando a alguien le plantean montar un sistema informático desde cero. No hay por qué dar nombres para no herir la sensibilidad de los fabricantes pero está claro de qué tecnologías se está hablando.
Hasta hoy estas tecnologías sobreviven, y en algunos casos de forma realmente cómoda, porque sus protectores están al pie del cañón. Pero cuando estos profesionales comiencen a desaparecer la situación de estas plataformas se volverá mucho más precaria. Parece razonable pensar que habrá movimientos en favor de tecnologías lideradas por las nuevas hornadas de profesionales.
¿Hay que preocuparse por esta evolución?
Personalmente creo que no. Simplemente hay que entender el problema y plantear la evolución con el tiempo necesario y suficiente. Los sistemas corporativos de los datacenters no evolucionan en términos temporales de meses sino de años; hay que preparar la transición con el tiempo necesario para no caer en las prisas de última hora cuando algo que puede hacerse mediante un cambio suave evolucione a una transición brusca y traumática.
Probablemente habrá muchas más cosas que cambiarán derivadas del primer relevo generacional del sector como, por ejemplo, que habrá quien aproveche el momento para flexibilizar la estructura salarial de las empresas (¡toma eufemismo!).
¿Cuál se te ocurre?
› Tons of IT: La metamorfosis del experto
› Tons of IT: El técnico de sistemas perfecto
Y no es que sea un expediente X ni que los informáticos cuando se jubilan se escondan en la vieja madriguera del sotobosque –Félix R. de la Fuente dixit-, es una simple cuestión matemática.
Las facultades comenzaron a inundar el mercado de licenciados en informática –hoy ingenieros- a finales de los años 70 o principios de los 80 según de qué universidad se trate. En ese momento, las grandes corporaciones y administraciones públicas comenzaban a mecanizar sus procesos mediante las TIC y el mercado absorbía toda la oferta existente de profesionales.
Esos ilusionados muchachos tienen hoy entre 55 y 60 años. Es decir, están a entre cinco y diez años (si nadie lo remedia) de comenzar una nueva y presumiblemente menos estresada vida.
Esta irrupción en el mercado de la rara avis de los “informáticos jubilados” tendrá algunas consecuencias que merece la pena analizar.
Cambia el perfil del profesional
Fuente: http://alumni.eside.deusto.es/orlas/ |
Sin embargo, hace ya mucho tiempo que la disponibilidad de máquina no es un problema. Cualquier profesional o aficionado tiene en su casa la capacidad de cálculo suficiente para plantear la aplicación que desee, por intensivo que sea el proceso. Quizá por eso, la fase de análisis puede ser en cierto modo relegado frente a una mayor presencia del ensayo-error. De hecho, las fronteras entre analista, analista-programador y programador son cada vez más difusas.
No digo que ahora se hagan mejor las cosas, tampoco lo contrario, pero sí creo que el perfil del profesional ha cambiado, pasando de una necesidad de análisis sin ambigüedades, un requisito grabado a fuego en estos profesionales, a un modelo mucho más basado en el ensayo-error y el diseño basado en prototipos. Nota: lo sé, generalizar acarrea errores.
El ideal es aprovechar estos años de convivencia generacional y llegar a conjugar lo mejor de los dos tipos: garantizar que todo el conocimiento funcional adquirido durante los últimos 30 años no se pierda y que las plataformas tecnológicas evolucionen acorde a los tiempos.
Evolución de las tecnologías en los datacenters
Una nueva verdad científica no suele imponerse convenciendo a sus oponentes sino más bien porque sus oponentes desaparecen paulatinamente y son sustituidos por una nueva generación familiarizada desde el principio con la nueva verdad, Max Planck.
Es previsible pensar que algunas tecnologías que llevan años fuera de las facultades y que como norma no han sido incorporadas en las empresas creadas en los últimos diez o quince años, puedan comenzar un suave, o tal vez no tan suave, declive.
Los datacenters de las grandes compañías y administraciones públicas, justamente las que comenzaron con la informática a principios de los años 80, están plagadas de tecnologías que no son de aplicación cuando a alguien le plantean montar un sistema informático desde cero. No hay por qué dar nombres para no herir la sensibilidad de los fabricantes pero está claro de qué tecnologías se está hablando.
Hasta hoy estas tecnologías sobreviven, y en algunos casos de forma realmente cómoda, porque sus protectores están al pie del cañón. Pero cuando estos profesionales comiencen a desaparecer la situación de estas plataformas se volverá mucho más precaria. Parece razonable pensar que habrá movimientos en favor de tecnologías lideradas por las nuevas hornadas de profesionales.
¿Hay que preocuparse por esta evolución?
Personalmente creo que no. Simplemente hay que entender el problema y plantear la evolución con el tiempo necesario y suficiente. Los sistemas corporativos de los datacenters no evolucionan en términos temporales de meses sino de años; hay que preparar la transición con el tiempo necesario para no caer en las prisas de última hora cuando algo que puede hacerse mediante un cambio suave evolucione a una transición brusca y traumática.
Probablemente habrá muchas más cosas que cambiarán derivadas del primer relevo generacional del sector como, por ejemplo, que habrá quien aproveche el momento para flexibilizar la estructura salarial de las empresas (¡toma eufemismo!).
¿Cuál se te ocurre?
Enlaces relacionados:
› Tons of IT: El técnico de sistemas perfecto
Radiografía de una eFactura
miércoles, 20 de marzo de 2013
Los antecedentes:
Solamente con esas tres razones no debería haber administración pública que se resistiese a mecanizar el proceso de facturación porque la cantidad de trabajo manual es enorme y su coste más que evidente. Y sin embargo no ocurre, o no al menos con la contundencia que sería razonable.
Alguna desventaja debe tener la factura electrónica para que su implantación no sea masiva. Primero, un rápido paseo por las ventajas.
Ventajas
Mejora en la detección de fraude. La eFactura permite cruzar la información de la factura con cualquier otra información disponible en los sistemas y todo en tiempo real.
Esto permite mejorar los ratios de detección de actividades sospechosas (fraude, evasión fiscal, morosidad,...) y no hay que perder de vista que la probabilidad de inspección y control es uno de los principales frenos -sino el mayor- al fraude o la evasión de capitales.
Quizá sea ésta la razón por la que algunas contabilidades aún se siguen haciendo con papel y pluma.
Mayor eficiencia. El Departamento del Tesoro de Finlandia estima que el coste global de procesamiento de una factura oscila entre 30 y 50 euros. Según sus estimaciones, automatizando el proceso por medios electrónicos, algo que Finlandia y otros muchos países ya han hecho, ese coste puede bajar a valores de entre 1 y 10 euros. Estos ahorros implican reducciones de cargas de trabajo manuales lo que, a su vez, además, permite una importante reducción de los plazos de procesamiento.
Medioambientales. Teniendo en cuenta que una factura tiene algo menos de tres páginas como promedio, cada año se imprimen más de un billón (un uno y doce ceros) de páginas en el proceso de emisión. El coste energético para producir ese papel es mayor que el consumo de 150 millones de bombillas de 50W encendidas durante 24 horas. Y el consumo de agua necesario para la fabricación de esa cantidad de papel es superior a los 120.000 millones de litros. Como consecuencia de esto, la huella de carbono de una eFactura es aproximadamente tres veces menor que esa misma factura en papel (que algo de CO2 también generan las infraestructuras de TI).
Y otros algo más intangibles como la mejora de la calidad gracias a la automatización de procesos, la imagen pública de modernidad, la mejora de plazos, etc.
Inconvenientes
Multitud de plataformas. En 2012, solo en Europa, había más de 500 proveedores de factura electrónica cuyo objetivo era integrar la eFactura en los más de 10.000 ERPs existentes. Este gran volumen es por una parte positivo ya que gracias a él será posible, según las previsiones, que en el año 2017 la mitad de la facturación en el segmento B2B o B2G sea electrónica. Este gran volumen de proveedores de eFactura busca repartirse un mercado en el que el ratio de crecimiento en 2012 fue del 35 por ciento y en el que se espera que en los próximos años sea superior al 30%.
La contrapartida a esta diversidad de plataformas y proveedores viene en forma de enormes costes de integración. No ya porque haya diferentes formatos de factura electrónica, que los hay, sino porque el cumplimiento de estándares de cada proveedor cuando se baja a la arena es manifiestamente mejorable.
Resistencia al cambio. La factura, como documento mercantil, no ha variado mucho en los últimos [cientos de] años. No es un problema exclusivo de la eFactura pero, sin duda, todavía hay quien le ve cierto gusto a almacenar los documentos en carpetas de papel. Es un problema que irá progresivamente, y probablemente de forma rápida, a menos.
El uso de certificados. Esta es la madre de todas las batallas respecto a los inconvenientes y se refleja de forma muy gráfica y evidente en los datos de uso de las diferentes acepciones de facturación electrónica que ha publicado la UE.
Los datos que el INE facilita sobre 2012 indican que el 19,2% de las empresas realiza su facturación de forma electrónica. Pero de entre ellas, solo un 7,5% lo hace siguiendo los estándares legales basados en XML firmado digitalmente. En las antípodas se encuentran el 97,1% de las empresas que utiliza formatos no procesables de forma automática, básicamente ficheros PDF.
Partiendo de la base de que la generación de un documento PDF o un fichero XML es idéntica en complejidad ya que el ERP abstrae al contable de todas esas tareas (incluso Excel tiene plantillas gratuitas para generar ambos tipos de documentos), lo único que realmente difiere es que el XML de Facturae exige firma para ser validado y procesado automáticamente mientras que una factura electrónica en un PDF (que incluso que puede provenir de una factura en papel digitalizada) enviada por email no exige nada.
Está claro que una tiene validez jurídica y la otra no pero los porcentajes dan que pensar respecto a cómo los tecnólogos complicamos la vida a los usuarios cuando deberíamos hacer justo lo contrario.
El papel de la administración publica
El papel de la Administración Publica es fundamental y quizá por ello la UE está promoviendo el desarrollo de este mercado mediante la directiva 2011/7/UE con el objetivo puesto en 2020 haciendo obligatoria la eFactura, aunque en este caso centrando el objetivo fundamentalmente en el control de la morosidad. Parece razonable pensar que si la factura es aceptada automáticamente por los sistemas, sin capacidad de repudio para emisor y receptor, no existirá capacidad alguna para 'retenerla en un cajón'.
Lo mismo ocurre en Estados Unidos con la iniciativa federal del Departamento del Tesoro de julio de 2011 obligando a todos los proveedores a enviar la facturación de forma electrónica a partir de enero de 2013. Incluso han creado una plataforma común para la facturación electrónica de sus diferentes administraciones públicas.
Que lejos está Europa de iniciativas como ésta.
El sector publico esta sin duda en una situación excepcional para regular este proceso ya que tiene la capacidad normativa, al tiempo que interviene en el 15% de todos los procesos de facturación, casi siempre como cliente.
Son muchos los Gobiernos que ya han puesto fecha de caducidad a la facturación en papel haciendo obligatoria la factura electrónica. Entre ellos están Dinamarca, Suecia, Finlandia, Noruega, Holanda, Brasil o Singapur entre otros. Los más grandes, como Estados Unidos y Bilbao, incluso han coincido en la fecha: 1 de enero de 2013... Como decía Unamuno, el mundo entero es un Bilbao más grande.
Enlaces relacionados
› ¿Tenemos que elegir entre tecnología o ecología?
› La oficina, ¿sin papeles o sin documentos?
› DNIe, de impulsor a stopper
www.tonsofit.com
- Cada año las empresas se intercambian a nivel mundial un total de 350.000 millones de facturas. A Europa le corresponden unos 30.000 millones de facturas.
- El reparto es aproximadamente 50-50 entre B2C y B2B.
- Por sectores, la Administración Pública es el mayor productor/receptor de facturas con un total del 15%.
Alguna desventaja debe tener la factura electrónica para que su implantación no sea masiva. Primero, un rápido paseo por las ventajas.
Ventajas
Mejora en la detección de fraude. La eFactura permite cruzar la información de la factura con cualquier otra información disponible en los sistemas y todo en tiempo real.
Esto permite mejorar los ratios de detección de actividades sospechosas (fraude, evasión fiscal, morosidad,...) y no hay que perder de vista que la probabilidad de inspección y control es uno de los principales frenos -sino el mayor- al fraude o la evasión de capitales.
Quizá sea ésta la razón por la que algunas contabilidades aún se siguen haciendo con papel y pluma.
Mayor eficiencia. El Departamento del Tesoro de Finlandia estima que el coste global de procesamiento de una factura oscila entre 30 y 50 euros. Según sus estimaciones, automatizando el proceso por medios electrónicos, algo que Finlandia y otros muchos países ya han hecho, ese coste puede bajar a valores de entre 1 y 10 euros. Estos ahorros implican reducciones de cargas de trabajo manuales lo que, a su vez, además, permite una importante reducción de los plazos de procesamiento.
Medioambientales. Teniendo en cuenta que una factura tiene algo menos de tres páginas como promedio, cada año se imprimen más de un billón (un uno y doce ceros) de páginas en el proceso de emisión. El coste energético para producir ese papel es mayor que el consumo de 150 millones de bombillas de 50W encendidas durante 24 horas. Y el consumo de agua necesario para la fabricación de esa cantidad de papel es superior a los 120.000 millones de litros. Como consecuencia de esto, la huella de carbono de una eFactura es aproximadamente tres veces menor que esa misma factura en papel (que algo de CO2 también generan las infraestructuras de TI).
Y otros algo más intangibles como la mejora de la calidad gracias a la automatización de procesos, la imagen pública de modernidad, la mejora de plazos, etc.
Inconvenientes
Multitud de plataformas. En 2012, solo en Europa, había más de 500 proveedores de factura electrónica cuyo objetivo era integrar la eFactura en los más de 10.000 ERPs existentes. Este gran volumen es por una parte positivo ya que gracias a él será posible, según las previsiones, que en el año 2017 la mitad de la facturación en el segmento B2B o B2G sea electrónica. Este gran volumen de proveedores de eFactura busca repartirse un mercado en el que el ratio de crecimiento en 2012 fue del 35 por ciento y en el que se espera que en los próximos años sea superior al 30%.
La contrapartida a esta diversidad de plataformas y proveedores viene en forma de enormes costes de integración. No ya porque haya diferentes formatos de factura electrónica, que los hay, sino porque el cumplimiento de estándares de cada proveedor cuando se baja a la arena es manifiestamente mejorable.
Resistencia al cambio. La factura, como documento mercantil, no ha variado mucho en los últimos [cientos de] años. No es un problema exclusivo de la eFactura pero, sin duda, todavía hay quien le ve cierto gusto a almacenar los documentos en carpetas de papel. Es un problema que irá progresivamente, y probablemente de forma rápida, a menos.
El uso de certificados. Esta es la madre de todas las batallas respecto a los inconvenientes y se refleja de forma muy gráfica y evidente en los datos de uso de las diferentes acepciones de facturación electrónica que ha publicado la UE.
Fuente. INE. Percentage of all enterprises sending electronic invoices |
Partiendo de la base de que la generación de un documento PDF o un fichero XML es idéntica en complejidad ya que el ERP abstrae al contable de todas esas tareas (incluso Excel tiene plantillas gratuitas para generar ambos tipos de documentos), lo único que realmente difiere es que el XML de Facturae exige firma para ser validado y procesado automáticamente mientras que una factura electrónica en un PDF (que incluso que puede provenir de una factura en papel digitalizada) enviada por email no exige nada.
Está claro que una tiene validez jurídica y la otra no pero los porcentajes dan que pensar respecto a cómo los tecnólogos complicamos la vida a los usuarios cuando deberíamos hacer justo lo contrario.
El papel de la administración publica
El papel de la Administración Publica es fundamental y quizá por ello la UE está promoviendo el desarrollo de este mercado mediante la directiva 2011/7/UE con el objetivo puesto en 2020 haciendo obligatoria la eFactura, aunque en este caso centrando el objetivo fundamentalmente en el control de la morosidad. Parece razonable pensar que si la factura es aceptada automáticamente por los sistemas, sin capacidad de repudio para emisor y receptor, no existirá capacidad alguna para 'retenerla en un cajón'.
Lo mismo ocurre en Estados Unidos con la iniciativa federal del Departamento del Tesoro de julio de 2011 obligando a todos los proveedores a enviar la facturación de forma electrónica a partir de enero de 2013. Incluso han creado una plataforma común para la facturación electrónica de sus diferentes administraciones públicas.
Que lejos está Europa de iniciativas como ésta.
El sector publico esta sin duda en una situación excepcional para regular este proceso ya que tiene la capacidad normativa, al tiempo que interviene en el 15% de todos los procesos de facturación, casi siempre como cliente.
Son muchos los Gobiernos que ya han puesto fecha de caducidad a la facturación en papel haciendo obligatoria la factura electrónica. Entre ellos están Dinamarca, Suecia, Finlandia, Noruega, Holanda, Brasil o Singapur entre otros. Los más grandes, como Estados Unidos y Bilbao, incluso han coincido en la fecha: 1 de enero de 2013... Como decía Unamuno, el mundo entero es un Bilbao más grande.
Enlaces relacionados
› ¿Tenemos que elegir entre tecnología o ecología?
› La oficina, ¿sin papeles o sin documentos?
› DNIe, de impulsor a stopper
www.tonsofit.com
Publicado por
Manu
Etiquetas:
2.0
,
Administración Electrónica
,
Administración Pública
,
DNI electrónico
,
DNI-e
,
Firma Electrónica
,
Repudio
,
Tecnología
Saludos desde
Bilbao
En la base de las ciudades inteligentes...
martes, 5 de febrero de 2013
Aunque sea uno de esos términos que empieza a estar maltratado por las diferentes acepciones que hacen de él unos y otros, hoy hablamos de smartcities.
La mayor parte de los proyectos que se plantean sobre ciudades inteligentes se basan en un colosal despliegue de sensores, desde detectores de tráfico, ocupación de plazas de aparcamiento, calidad del aire, farolas inteligentes, coordinación semafórica global, detección de aglomeraciones,...
Y además, si de verdad se quiere que la ciudad sea (o parezca) inteligente, todos esos sensores deben estar en comunicación. Eso permitiría, por ejemplo, aumentar la potencia lumínica de las farolas ante aglomeraciones en una determinada calle, diseñar una planificación de los semáforos que discriminen positivamente al transporte público detectando su presencia en tiempo real, correlacionar la calidad del aire en una determinada calle con el tráfico que soporta a fin de buscar alternativas,... Para todo ello se deben buscar protocolos estándar que unifiquen la gestión de elementos tan dispares.
El otro gran frente es el coste; dotar de comunicaciones IP a los miles de dispositivos, por ejemplo semáforos o farolas, de una gran ciudad tiene un coste colosal. Por eso, los medios de comunicación utilizados, además de estándar deben ser muy eficientes en costes.
La solución parece ser inalámbrica
Por simplificar, empecemos por el ámbito doméstico. Imaginemos que cada bombilla del hogar tiene un chip miniaturizado que incorpora una antena 6LoWPAN, lo que no es ningún disparate teniendo en cuenta que su fabricación ya está muy por debajo de un euro.
Con ello desaparecería el concepto de interruptor ya que cada bombilla podría ser encendida y apagada a voluntad (o mediante sensores) desde cualquier aplicación de gestión que tenga permisos para comunicarse con la IP de cada bombilla. Lo importante es que por primera vez se elimina la necesidad de tener un cable que conecte el dispositivo que consume la electricidad (la bombilla, por ejemplo) con el mando que la regula (el interruptor). Esta conexión pasa a ser lógica, no física.
La mayor parte de los proyectos que se plantean sobre ciudades inteligentes se basan en un colosal despliegue de sensores, desde detectores de tráfico, ocupación de plazas de aparcamiento, calidad del aire, farolas inteligentes, coordinación semafórica global, detección de aglomeraciones,...
Y además, si de verdad se quiere que la ciudad sea (o parezca) inteligente, todos esos sensores deben estar en comunicación. Eso permitiría, por ejemplo, aumentar la potencia lumínica de las farolas ante aglomeraciones en una determinada calle, diseñar una planificación de los semáforos que discriminen positivamente al transporte público detectando su presencia en tiempo real, correlacionar la calidad del aire en una determinada calle con el tráfico que soporta a fin de buscar alternativas,... Para todo ello se deben buscar protocolos estándar que unifiquen la gestión de elementos tan dispares.
El otro gran frente es el coste; dotar de comunicaciones IP a los miles de dispositivos, por ejemplo semáforos o farolas, de una gran ciudad tiene un coste colosal. Por eso, los medios de comunicación utilizados, además de estándar deben ser muy eficientes en costes.
La solución parece ser inalámbrica
Para ayudar en ambos puntos el IEEE lleva un tiempo trabajando en la norma 802.15.4 cuya denominación es de lo más ilustrativa: Low Rate Wireless Personal Area Networks (LR-WPAN). Es decir, redes wireless de bajo caudal (por debajo de 250 kbp/s, es decir, unas 1.200 veces menos que una WiFi normal 802.11n) pero que pueden funcionar con unos niveles de consumo eléctrico realmente reducidos.
Por encima de la norma 802.15.4 trabaja un grupo del IETF definiendo el protocolo 6LoWPAN, con el objetivo de permitir la comunicación inalámbrica de bajo consumo mediante redes IPv6.
Todo ello, unido, garantiza una capacidad de direccionamiento prácticamente sin límite, baterías con una duración de años y un tamaño reducidísimo, lo que hace esta norma especialmente apropiada para dispositivos de lo más variopinto tanto en el ámbito de las ciudades como en oficinas y viviendas.
Todo ello, unido, garantiza una capacidad de direccionamiento prácticamente sin límite, baterías con una duración de años y un tamaño reducidísimo, lo que hace esta norma especialmente apropiada para dispositivos de lo más variopinto tanto en el ámbito de las ciudades como en oficinas y viviendas.
Pero, ¿para qué sirve todo esto?
Por simplificar, empecemos por el ámbito doméstico. Imaginemos que cada bombilla del hogar tiene un chip miniaturizado que incorpora una antena 6LoWPAN, lo que no es ningún disparate teniendo en cuenta que su fabricación ya está muy por debajo de un euro.
Con ello desaparecería el concepto de interruptor ya que cada bombilla podría ser encendida y apagada a voluntad (o mediante sensores) desde cualquier aplicación de gestión que tenga permisos para comunicarse con la IP de cada bombilla. Lo importante es que por primera vez se elimina la necesidad de tener un cable que conecte el dispositivo que consume la electricidad (la bombilla, por ejemplo) con el mando que la regula (el interruptor). Esta conexión pasa a ser lógica, no física.
Con suma facilidad se podría definir una activación gradual de las bombillas de una lámpara de forma que se fueran encendiendo a medida que va cayendo la tarde y se va reduciendo la luz ambiente.
Lo mismo sería de aplicación para cualquier dispositivo de la domótica del hogar. Sin duda, protocolos como 6LoWPAN u otros similares como ZigBee abren todo un nuevo mundo de posibilidades de gestión para el aumento de la calidad de vida en el hogar. Tal vez, el sueño de tener un salón como los de las películas de James Bond, donde los muebles y aparatos electrónicos aparecen y desaparecen a voluntad (horteradas al margen), no esté tan lejos.
¿Y en el ámbito de las ciudades?
Exactamente esa misma tecnología puede ser aplicada a gran escala en el ámbito de las ciudades. Esto permitirá, a un coste y nivel de complejidad razonable, informar al ciudadano de las plazas libres de aparcamiento en calle, de las congestiones de tráfico o aglomeraciones de personas, de la calidad del aire.
Permitiría también iluminar más o menos las calles en función de si hay o no transeúntes o coches circulando, optimizar los desplazamientos en transporte público dándole paso en los semáforos a medida que se van acercando, minimizar el tiempo de espera de los peatones en los semáforos detectando su presencia o aumentar el tiempo para los vehículos cuando no haya nadie esperando. Incluso, por qué no, sancionando de forma automática a quien de forma indebida estacione en una plaza reservada para personas con discapacidad o se salte un semáforo en rojo (bien entrado el rojo, no en ámbar como se hace en algunas ciudades).
Parece claro que las redes WiFi tendrán un papel preponderante en el diseño de las ciudades inteligentes. No solo para dar acceso gratuito a Internet a la ciudadanía -que también- sino para crear una tupida red de sensores que hagan la vida más agradable.
Enlaces relacionados
› Open Data no es una opción, es una necesidad
› Hacia una ciudad amable
› Big data y las decisiones instintivas
› IPv6 empieza a dar señales de vida
www.tonsofit.com
¿Y en el ámbito de las ciudades?
Exactamente esa misma tecnología puede ser aplicada a gran escala en el ámbito de las ciudades. Esto permitirá, a un coste y nivel de complejidad razonable, informar al ciudadano de las plazas libres de aparcamiento en calle, de las congestiones de tráfico o aglomeraciones de personas, de la calidad del aire.
Permitiría también iluminar más o menos las calles en función de si hay o no transeúntes o coches circulando, optimizar los desplazamientos en transporte público dándole paso en los semáforos a medida que se van acercando, minimizar el tiempo de espera de los peatones en los semáforos detectando su presencia o aumentar el tiempo para los vehículos cuando no haya nadie esperando. Incluso, por qué no, sancionando de forma automática a quien de forma indebida estacione en una plaza reservada para personas con discapacidad o se salte un semáforo en rojo (bien entrado el rojo, no en ámbar como se hace en algunas ciudades).
Parece claro que las redes WiFi tendrán un papel preponderante en el diseño de las ciudades inteligentes. No solo para dar acceso gratuito a Internet a la ciudadanía -que también- sino para crear una tupida red de sensores que hagan la vida más agradable.
Enlaces relacionados
› Open Data no es una opción, es una necesidad
› Hacia una ciudad amable
› Big data y las decisiones instintivas
› IPv6 empieza a dar señales de vida
www.tonsofit.com