XI Jornadas de Sociología. Facultad de Ciencias Sociales, Universidad de Buenos
Aires, Buenos Aires, 2015.
El Big Data y la Analítica de
Negocios en el capitalismo
informacional.
Brian Leonel Goldman.
Cita: Brian Leonel Goldman (2015). El Big Data y la Analítica de Negocios
en el capitalismo informacional. XI Jornadas de Sociología. Facultad de
Ciencias Sociales, Universidad de Buenos Aires, Buenos Aires.
Dirección estable: http://www.aacademica.org/000-061/993
Acta Académica es un proyecto académico sin fines de lucro enmarcado en la iniciativa de acceso
abierto. Acta Académica fue creado para facilitar a investigadores de todo el mundo el compartir su
producción académica. Para crear un perfil gratuitamente o acceder a otros trabajos visite:
http://www.aacademica.org.
Título: El Big Data y la Analítica de Negocios en el capitalismo informacional
Nombre y apellido del autor: Brian Leonel Goldman
Pertenencia institucional: Universidad de Buenos Aires / Facultad de Ciencias Sociales
Dirección de correo electrónico:
[email protected]
Resumen: El presente trabajo busca analizar dos procesos en creciente expansión en el ámbito
laboral del sector informacional de las economías capitalistas informacionales, a saber, el
Big Data y la Analítica de Negocios. Ambos fenómenos emergen a partir de la introducción
y adopción masiva de las Tecnologías de la Información y Comunicación en el ámbito
empresarial. Con este propósito, nos enfocaremos en definir ambos procesos como una serie
de estrategias empresariales basadas en el uso de tecnologías por parte de las empresas red
(institución característica del capitalismo informacional), así como explorar algunas de las
modalidades que adquieren estos fenómenos en las empresas líderes del sector informacional.
Además, tomaremos en cuenta la importancia del denominado “mercado de plataformas” de
Analítica de Negocios y Big Data en la adopción de estas estrategias, en tanto el desarrollo
de este nuevo mercado implica la emergencia de nuevos actores profesionales y económicos.
Por último, discutiremos el rol que los “científicos de datos” o “especialistas en analítica
profunda” desempeñan en estos procesos, en tanto estos nuevos profesionales se convierten
progresivamente en uno de los actores claves en el manejo de los flujos de información
digital.
Palabras clave: Big Data / analítica / capitalismo informacional
INTRODUCCIÓN
Tras el inicio del tercer milenio, las compañías tienen acceso a la información de una forma
sin precedentes. Los datos, que se generan a través de un sinnúmero de aplicaciones y de
sistemas que sirven como soporte a las redes sociales, la comunicación mediada por
computadora, las transacciones comerciales, entre otros, se encuentran no sólo en formatos
estructurados y en bases de datos tradicionales, sino también en forma de imágenes, voz,
posicionamiento geográfico, etc. La información está disponible en tiempo real, lo que
significa que las organizaciones pueden acceder a ella tan pronto como se genera.
El “Big data” es una tecnología que captura estos hechos bajo la premisa de la disponibilidad
de grandes cantidades de información en formatos estructurados y desestructurados en
tiempo real. En ese orden de ideas, el Volumen, la Variedad y la Velocidad de los datos son
dimensiones clave del concepto Big data. Esta poderosa tecnología representa una pieza clave
en los procesos de acumulación de capital de muchas empresas que han adoptado una
estrategia de competitividad y crecimiento basada en la captura y procesamiento continuo de
grandes masas de información, producidas dentro y fuera de la empresa, lo que definiremos
como “Analítica de negocios”.
EL ORIGEN DEL BIG DATA
Durante la década de los setenta y a principios de los ochenta, los fabricantes y minoristas de
productos de consumo empaquetados (CPG) hacían funcionar los negocios usando informes
de mercado quincenales de AC Nielsen. Estos informes mostraban datos de la competencia
y el mercado (por ejemplo ingresos, unidades vendidas, precio promedio y participación de
mercado) que los fabricantes de CPG utilizaban para establecer estrategias, planes y gastos
de ventas, marketing, publicidad y promociones con sus partners de canal (por ejemplo
distribuidores, mayoristas y minoristas).
Luego, a mediados de los ochenta, Information Resources Inc. (IRI) ofreció instalar escáneres
gratuitos de puntos de venta (POS) en ubicaciones minoristas a cambio de datos residuales
del escáner. Los minoristas estuvieron más que felices con este intercambio, ya que la mano
de obra era su componente de mayor costo y había una comprensión limitada con respecto al
valor de los datos de escáneres de POS.
Estos datos de escáneres de POS, que se consideraban “big data” en ese momento,
provocaron un cambio innovador en el sector en cuanto a poder (entre los fabricantes y
minoristas) y la manera en que tanto fabricantes como minoristas operaban sus negocios. Los
volúmenes de datos se incrementaron de megabytes a terabytes, por lo que se necesitaba una
nueva generación de plataformas de almacenamiento y servidores (por ejemplo Teradata,
Red Brick, Sybase IQ, Sun y Sequent) y herramientas de análisis (por ejemplo Metaphor,
Business Objects, Informática y MicroStrategy).
Compañias como Wal- Mart, Procter & Gamble, Tesco y Frito Lay aprovecharon al máximo
este nuevo “big data” y las nuevas plataformas y herramientas de análisis para obtener ventaja
competitiva. Estas compañías estuvieron a la vanguardia del desarrollo de nuevas categorías
de aplicaciones para el negocio de big data y basadas en análisis para abordar problemas del
negocio que antes no se podían enfrentar de manera rentable, como por ejemplo proyección
para ventas basada en la demanda, optimización de la cadena de abastecimiento, eficacia del
gasto comercial, análisis del estado del mercado, optimización de precios o rendimientos,
programas de lealtad de clientes, etc.
Treinta años después, con el salto producido en la capacidad de almacenamiento y
procesamiento de las computadoras, y la expansión de Internet y la conexión de banda ancha
a nivel mundial, se dispara la producción de datos nuevos, de baja latencia, de alta precisión
y amplia diversidad que tienen el potencial de optimizar las estrategias de acumulación de
las empresas. El Big Data se generalizó entre muchas empresas a través de Hadoop, el
software open source que se volvió en muchos casos un estándar entre las empresas.
¿QUÉ ES EL BIG DATA?
El Big data hace referencia a un sistema informático capaz de buscar, capturar, procesar,
visualizar y acumular grandes cantidades de datos digitales. El objetivo central del Big data
es analizar los datos capturados con el fin de identificar patrones o tendencias al interior de
los fenómenos que se están analizando (Mayer- Schomberger, 2013). El Big data trabaja a su
vez con tres tipos de datos diferentes:
Datos estructurados: son aquellos datos con un formato y longitud definidos, que se
almacenan en bases de datos y pueden ser analizados con métodos estadísticos.
Algunos ejemplos de estos tipos de datos son las fechas, los montos de dinero, las
cadenas de caracteres, etc.
Datos semiestructurados: son datos que no pertenecen a un campo definido, pero que
tienen algún tipo de marcador que permite clasificarlos. Los datos generados a partir
del uso de los lenguajes de programación son un claro ejemplo de este tipo de datos.
Datos no estructurados: son datos que carecen de un formato específico, en los cuales
no se puede desestructuran la información hasta un dato fundamental, ya que el dato
lo conforma una unidad semántica, ideográfica o lingüística. Ejemplos de este tipo de
datos son los e- mails, los archivos multimedia, los documentos de texto, las
publicaciones en redes sociales, etc.
Los datos utilizados por las tecnologías de Big Data son producidos durante cada segundo, a
lo largo y ancho de Internet. La producción de datos implica automáticamente la producción
de metadatos, que se producen simultáneamente y que son de suma importancia para su
análisis mediante las tecnologías de Big Data (por ejemplo, la ubicación geográfica de la
persona que voto “Me gusta” a una publicación de Facebook). Generalmente, se distingue el
origen de los datos según si son:
People to People (P2P): son producidos por la actividad de un ser humano al recibir,
procesar o enviar contenido digital a través de Internet a otro usuario. Los ejemplos
más comunes son enviar un e- mail, un mensaje de texto, postear en una red social
como Twitter o Facebook, responder a una encuesta online, ingresar a un sitio web,
votar o comentar el contenido subido por otros usuarios, participar en una comunidad
virtual, etc.
Machine to Machine (M2M): son los datos que las computadoras producen en
determinada situación, transformando magnitudes físicas y químicas en información
digital y que envían mediante Internet a otras computadoras, a los servidores de
Internet, a un centro de procesamiento, etc. Entre estos datos se incluye la luz, la
altura, el pulso cardíaco de una persona, la presión atmosférica, el sonido, etc. Los
GPS o sistemas de posicionamiento global son una
tecnología diseñada
específicamente mediante la transmisión continua de este tipo de datos.
People to Machine (P2M): se producen por la actividad de un usuario en relación
directa con un sistema informático digital, sin un interlocutor humano directo. Esto
incluye las operaciones comerciales realizadas a través de Internet o las transacciones
bancarias, la
Comentarios de: El Big Data y la Analítica de Negocios en el capitalismo informacional (0)
No hay comentarios