Actualizado el 21 de Marzo del 2018 (Publicado el 8 de Enero del 2018)
954 visualizaciones desde el 8 de Enero del 2018
5,0 MB
21 paginas
Creado hace 11a (21/11/2013)
Big Data y la transformación necesaria
Fernando Maldonado
@FmaldonadoF
“Cuando el ritmo de cambio en el exterior supera el
ritmo de cambio en el interior, el fin está cerca”.
ritmo de cambio en el interior, el fin está cerca”.
Jack Welch
Antiguo CEO de GE
La industria TI se transforma
Big Data como disruptor
Catalizador
Habilitador
33%
Transformador
50%
Disruptor
30%
7%
4
Internet, dispositivos y redes sociales
+1.000 millones
de usuarios
internet móvil
+ 20M de smart
meters (US)
+500.000 apps
para móvil
para móvil
+900 millones
de usuarios
de usuarios
+630 millones
de portátiles
+1200
+1200
millones de
móviles
móviles
+300 millones de
smartphones
+7000 millones
de dispositivos
5
…que generan una gran cantidad de datos
2.9 millones
por segundo
50 millones de
tweets al día
375 MB diarios
consumidos
700 billones de
minutos al mes
20 horas de
video subidos
por minuto
24 Petabytes
procesados
diarios
1.3 Exabytes
enviados y recibidos
por usuario
72.9 productos
ordenados por
segundo
6
Proyectando a 2020
La información gestionada
El número de servidores
El número de servidores
x14
x10
x10
El número de profesionales TIC x1,5
© IDC Visit us at IDC.com and follow us on Twitter: @IDC
7
Nuestra “era del estrés” es, en gran parte, el resultado
de tratar de hacer el trabajo de hoy con las
herramientas de ayer.
herramientas de ayer.
Marshall McLuhan
Reto 1: Volumen
Reto 1: Volumen
2010
1.2
ZB
ZB
2020
35
Zettabytes*
Zettabytes*
A mayor cantidad de datos, más
complicado es encontrar la
información de relevante
*Zettabyte: 1,000,000,000,000,000,000,000 bytes
( 1 trillion gigabytes)
Source: IDC Digital Universe Study, 2010, Sponsored by EMC
9
Reto 2: Almacenamiento
Reto 2: Almacenamiento
Petabytes
Ya no es posible guardar toda la
informacion…
Universo digital
Brecha
Brecha
Capacidad
Almacenamiento
40,000,000
30,000,000
20,000,000
10,000,000
2010
2020
10
Reto 3: Velocidad
Se generan datos a mayor
velocidad y la vida útil del dato
se reduce
Datos en tránsito: 856
Datos en tránsito: 856
Petabytes
Petabytes/s/s
2012: 85,61
2012: 85,61
Terabytes/s
Terabytes/s
2011: 57,07
2011: 57,07
terabytes/s
terabytes/s
Traceback (most recent call last):
File "/usr/local/bin/pdf2txt.py", line 115, in <module>
if __name__ == '__main__': sys.exit(main(sys.argv))
File "/usr/local/bin/pdf2txt.py", line 109, in main
interpreter.process_page(page)
File "/usr/local/lib/python2.7/dist-packages/pdfminer/pdfinterp.py", line 832, in process_page
self.render_contents(page.resources, page.contents, ctm=ctm)
File "/usr/local/lib/python2.7/dist-packages/pdfminer/pdfinterp.py", line 845, in render_contents
self.execute(list_value(streams))
File "/usr/local/lib/python2.7/dist-packages/pdfminer/pdfinterp.py", line 870, in execute
func(*args)
File "/usr/local/lib/python2.7/dist-packages/pdfminer/pdfinterp.py", line 780, in do_EI
if 'W' in obj and 'H' in obj:
TypeError: argument of type 'int' is not iterable
Comentarios de: Transformación del departamento de TI en la era Big Data (0)
No hay comentarios