El trabajo en la era de la digitalización
Vivimos en sistemas sociotécnicos que están cambiando la organización social, con una incidencia muy visible en las relaciones laborales, pero también la propia identidad de las personas, por lo que urge establecer principios éticos y alcanzar una gestión democrática de los cambios.
Toda nuestra vida, nuestra cotidianeidad, nuestra realidad se hayan mediadas por artefactos, instrumentos y dispositivos tecnológicos digitales. Convivimos con las tecnologías digitales en una suerte de simbiosis humano-máquina que difumina, de algún modo, las fronteras entre los sujetos humanos y la tecnología. Como decía Ortega y Gasset, no vivimos «con» la tecnología, sino que vivimos «en» la tecnología; la mayor parte de nuestro «mundo» es artificial y la tecnología no es un elemento separado de la sociedad.
Gracias a la expansión del uso de la telefonía móvil y de procedimientos de computación avanzados y asequibles, toda nuestra realidad y nuestras interacciones se están transformando en información cuantificable (datos) que pueden ser registrados, medidos, analizados y explotados: desde el área espacial (geolocalización), hasta los actos más esenciales de la vida, como el sueño, la actividad física o el estado de salud (a través de relojes y pulseras inteligentes, implantes y prótesis, prendas de vestir, medicamentos digitales), pasando por las mismas interacciones humanas (pensamientos, estados de ánimo, comportamientos), que se pueden registrar mediante el análisis de nuestra actividad en redes sociales. Todo lo que nos rodea incorpora sensores y módulos de comunicación, en nuestro cuerpo, en infinidad de objetos cotidianos (domótica, teléfonos, ordenadores, ropa, vehículos) y en el espacio público (cámaras de reconocimiento facial, sensores de huellas dactilares, escáneres de retina). La mayor parte de la información es generada por las personas a través de la interacción con los servicios basados en Internet y telefonía móvil.
Esta ingente y creciente cantidad de datos se maneja mediante algoritmos de inteligencia artificial, donde un algoritmo es una lista más o menos larga de instrucciones, un conjunto ordenado y finito de pasos que puede emplearse para hacer cálculos, resolver problemas y alcanzar decisiones: dados un estado inicial y una entrada, siguiendo los pasos sucesivos, se llega a un estado final y se obtiene una solución. Para que estas instrucciones sean lo más precisas posible, el algoritmo utiliza un lenguaje formal o matemático, que luego puede implementarse en diferentes dispositivos.
«Inteligencia artificial» es un término muy difuso (y hasta engañoso) pero que podemos entender como aquellos procesos automáticos (algorítmicos) que llevan a cabo tareas complejas que normalmente caracterizamos como «inteligentes». Estos procesos incluyen, por ahora:
- Las estrategias de aprendizaje automático (Machine Learning), incluidos el aprendizaje supervisado, el no supervisado y el realizado por refuerzo, que emplean una amplia variedad de métodos, entre ellos el aprendizaje profundo.
- Las estrategias basadas en la lógica y el conocimiento, especialmente la representación del conocimiento, la programación (lógica) inductiva, las bases de conocimiento, los motores de inferencia y deducción y los sistemas expertos y de razonamiento (simbólico).
- Las estrategias estadísticas, estimación bayesiana y métodos de búsqueda y optimización.
Precisamente, el proyecto de reglamento europeo para la inteligencia artificial (Artificial Intelligence Act) define un sistema de IA como el software que se desarrolla empleando una o varias de estas técnicas y estrategias mencionadas y que puede, para un conjunto determinado de objetivos definidos por seres humanos, generar información de salida como contenidos, predicciones, recomendaciones o decisiones que influyan en los entornos con los que interactúa.
En definitiva, nos configuramos ya como sistemas sociotécnicos donde mantenemos una interacción física, cognitiva y hasta emocional con las tecnologías digitales. Por ello, es más correcto hablar de «inteligencias artificiales» en la medida en que constituimos sistemas inteligentes multi-agentes, con equipos de humanos y máquinas que desarrollan inteligencia colectiva y social. Dicho de otro modo, establecemos una relación humano-máquina «mutualista», con equipos de humanos y artefactos que comparten agencia (entornos sociotécnicos) y que coevolucionan (hipótesis de la mente extendida). En este sentido, la «inteligencia» no se contempla como algo individual y privativo de los humanos sino como un dispositivo social y distribuido que desarrolla inteligencia colectiva (inteligencia distribuida híbrida).
No vivimos «con» la tecnología,
sino que vivimos «en» la tecnología;
la mayor parte de nuestro «mundo» es artificial
y la tecnología no es un elemento
separado de la sociedad
Este nuevo sujeto de la revolución digital en la que nos encontramos se basa en la conexión constante y en la contribución al flujo de datos. Ya no se trata solo de una «economía de la atención» (tiranía del clickbait) sino una «vigilancia» permanente, aunque no nos sintamos observados. Es lo que Shoshana Zuboff (2020) ha llamado «capitalismo de vigilancia», una desaparición de facto de lo privado (mediante una «servidumbre voluntaria» en nuestra relación con la tecnología).
Desde el punto de vista de la identidad del individuo, se producen dos giros:
- Yo-cuantificado: como hemos dicho, todos los actos más esenciales de la vida (actividad física, sueño, presión sanguínea, respiración…) se registran y monitorizan mediante relojes inteligentes, prótesis, prendas de vestir, píldoras digitales, implantes, etc. –es la internet de los cuerpos–. Igualmente, se recogen y analizan todas las interacciones humanas y elementos intangibles de nuestra vida cotidiana (pensamientos, estados de ánimo, comportamiento) mediante el estudio de las redes sociales como Facebook, Twitter, Linkedin…
- Optimización de uno mismo: el tiempo libre se vive igual que el tiempo de trabajo y está atravesado por las mismas técnicas de evaluación, calificación y aumento de la efectividad (24/7). El concepto de «rendimiento» se extiende a la vida en su totalidad. Remedios Zafra (2017) lo llama «un mundo sin párpados» (hipervisibilidad de la vida conectada), de multitud de solos conectados, donde se confunden las esferas de lo privado y lo público, y donde las vivencias y experiencias personales se transforman en capital, convirtiendo al sujeto en producto, apropiándose de nuestros datos y de nuestro tiempo (de ahí la conocida frase de que, si algo es gratis en internet, es porque el producto eres tú). Más aún, se plantea la idea inquietante y explotadora del «trabajo divertido», donde la vida personal es parte también de la vida laboral. Aquí ya tenemos una primera consecuencia con relación al trabajo de esta revolución digital: la autoexploración.
Y ello se corresponde también con la llamada «plataformización del trabajo»: según un reciente estudio de la Universidad de Hertfordshire e Ipsos Mori, hay un ejército de personas trabajando de forma invisible a través de plataformas digitales (no solo los trabajadores de servicios de conducción y de reparto que vemos en nuestras calles). Muchas de estas personas realizan trabajos muy tradicionales que anteriormente se llevaban a cabo dentro de la economía informal: limpieza, cuidado de niños y otro tipo de cuidados, jardinería, carpintería, limpieza de cristales, fontanería… Aunque muchas declaran que este tipo de trabajos solo supone una parte de sus ingresos, el estudio estima que alrededor de 2,2 millones de personas en España (el 7,1% de la población adulta en edad laboral) obtienen más de la mitad de sus ingresos del trabajo en plataformas. Tampoco están concentrados en regiones y ciudades grandes y avanzadas tecnológicamente sino en lugares con importante economía informal y niveles elevados de pobreza y trabajo estacional (como la agricultura y el turismo). Así, el trabajo en plataformas no es tanto un signo de innovación y modernidad, sino una forma de trabajo que adoptan los trabajadores pobres, quienes tratan de reunir ingresos de cualquier fuente disponible. Las plataformas llegan a cobrar hasta el 25% del valor de cada transacción.
Este panorama lleva a una degradación transversal de todos los empleos (la «desestandarización del trabajo»), si bien subsiste una segmentación creciente del mercado de trabajo entre el trabajo sometido a los avatares de la coyuntura, la pobreza de la remuneración y la ausencia total de seguridad (precariedad) y el trabajo protegido, bien remunerado y con garantías estatutarias (el llamado «dualismo del mercado laboral»).
La situación es que la destrucción de empleos que eran aparentemente estables (como en la industria o en la banca), la desocupación, el subempleo, los salarios bajos y la precariedad hacen que el trabajo ya no pueda asumir su función integradora y que nos quepa preguntarnos si el trabajo es un valor en peligro de extinción o si es posible reorganizar el vínculo entre trabajo y protección de modo que una mayor flexibilidad de los empleos (por mor de la competitividad, la tecnología y el cambio social) no se pague con una precariedad incrementada.
Castel (2010: 92) resume la circunstancia actual del trabajo del siguiente modo: «En primer lugar, hay no empleo y subempleo, vale decir, una escasez de lugares disponibles en el mercado de trabajo susceptibles de satisfacer una demanda completa de pleno empleo. En segundo lugar, hay una sobrevalorización del trabajo que lo convierte en un imperativo categórico, la exigencia absoluta de trabajar para ser socialmente respetable. En tercer lugar, y de manera correlativa, hay una estigmatización del no trabajo asimilable al ocio culpable, la figura tradicional del “mal pobre” que vive a costa de la gente de bien (los que trabajan, que están bien y que tienen bienes)».
El trabajo no garantiza las condiciones mínimas de cierta independencia económica para llevar una vida decente, lo que lleva al trabajador a depender en parte de ayudas de asistencia para sobrevivir (trabajadores pobres). Esto produce una nueva categoría híbrida de trabajo y asistencialismo, una suerte de «precariedad asistida». La instigación para trabajar en cualesquiera condiciones tiene que ver más con un chantaje moral que con la idea del trabajo como fundamento de integración social.
Pero esta economía de la atención y de los datos también precisa de «trabajadores fantasma» (ghost workers), que realizan micro-trabajos en pésimas condiciones laborales para la gestión de esas ingentes cantidades de datos, imágenes o textos y para «entrenar» a los algoritmos.
Un ejemplo de este trabajo precarizado y dañino se recogía en una reciente investigación de la revista TIME recogida en la prensa española: SAMA es una empresa californiana con trabajadores de Kenia, Uganda e India que etiquetan contenidos de sus clientes (Google, Meta o Microsoft). En 2021, SAMA fue contratada por Open AI para clasificar decenas de miles de fragmentos de texto, con el fin de detectar lenguaje tóxico relacionado con violencia, discurso de odio y abuso sexual. Esta es una labor que deben hacer trabajadores humanos. Los modelos de lenguaje generacional (como ChatGPT) y los algoritmos de moderación de contenidos (filtros para detectar contenido inapropiado) necesitan de este paso previo. Precisan que se les suministre el contenido pernicioso ya etiquetado para que, así, tras ser alimentada con miles y miles de ejemplos, la inteligencia artificial (IA) pueda llegar a identificarlo «por sí sola» cuando se tope con imágenes o textos parecidos en el futuro. Es necesario, también, para filtrar la información con la que se alimentan los modelos generacionales de lenguaje para que no tengan acceso a ella y, por tanto, no puedan reproducir esos textos e ideas comprometidas. A pesar del rol fundamental que desempeñan estos profesionales en clasificar la información, cada vez más investigaciones revelan sus precarias condiciones de trabajo. Quizá sea debido al interés que hay de esconder lo mucho que la inteligencia artificial depende de esta gran fuerza laboral cuando se celebran los logros y la eficiencia de la tecnología.
La otra gran cuestión de la revolución digital con relación al trabajo es la posible pérdida de empleos. En este sentido, es necesario distinguir dos fenómenos: la sustitución y la complementariedad.
Por un lado, la tecnología digital puede ser empleada para sustituir el trabajo, por ejemplo, en tareas rutinarias tanto de carácter cognitivo (archivo, cálculos, nóminas) o manual (clasificación, cadenas de montaje, tareas repetitivas).
Por otro lado, la digitalización puede complementar, mejorar y aumentar tareas no rutinarias de tipo cognitivo y creativo (investigación, educación, gestión de personas, arte) y de tipo manual y eminentemente intersubjetivo, como son los cuidados. En este caso, el reemplazo es muy limitado, aunque muchas veces supone una transformación de las habilidades implicadas en la tarea a realizar. Así, podemos hablar de «ecosistemas» de humanos-máquinas en términos de un nuevo «humanismo relacional» o «materialidad relacional», donde los objetos y dispositivos participan en un entramado de relaciones y prácticas. No se da una separación tajante entre el sujeto y el objeto, ya que la tecnología tiene un rol configurador de los modos o formas de vida, con especial incidencia en el ámbito del trabajo. Precisamente, la innovación complementaria es más beneficiosa para la sociedad porque incorpora las capacidades humanas a la producción, aumentando la productividad.
El trabajo en plataformas
no es tanto un signo de
innovación y modernidad,
sino una forma de trabajo
que adoptan los trabajadores
pobres, quienes tratan de
reunir ingresos de cualquier
fuente disponible
Además, como recoge Pastor Bodmer (2022: 64ss), las innovaciones sustitutivas no tienen un efecto positivo sobre los salarios, precisamente por el reemplazo del trabajo, mientras que las innovaciones complementarias tienden a hacer el trabajo más productivo y hacen posible un aumento de los salarios, como ocurrió durante la Revolución Industrial a partir de la mitad del siglo XIX. Por ello, las grandes corporaciones digitales como Google, Amazon, Facebook, Apple, Microsoft han impulsado las innovaciones sustitutivas que producen un lucro a corto plazo, aunque tengan efectos perjudiciales sobre la cantidad y la calidad del empleo.
Hay que señalar, como indica Pastor Bodmer (2022: 76), que «las destrucciones de empleo catastróficas (masivas y concentradas en el tiempo) son fruto de crisis económicas o financieras, no de cambios tecnológicos».
Por todo ello, los Estados deben orientar el desarrollo tecnológico digital para favorecer las innovaciones complementarias, defender la competencia en los mercados frente a los oligopolios, establecer criterios de empleabilidad para los proyectos con apoyo público y, muy especialmente, capacitar a los trabajadores y a la ciudadanía para el cambio tecnológico, sobre todo considerando los periodos de transición y desajuste entre el desarrollo de la tecnología y la capacidad de adaptaciones de las personas. Por ejemplo, facilitando el acceso a las redes y dispositivos y mediante una intensa alfabetización digital. Y también incentivando no solo las habilidades técnicas (STEM) sino igualmente todas aquellas disciplinas y actividades cognitivas y manuales no rutinarias y difícilmente sustituibles o automatizables. Para ello, las humanidades constituyen saberes indispensables para dotar de sentido a la existencia en este proceso de profunda transformación del trabajo; esto es, para definir la vida buena en común.
Precisamente, una Resolución del Parlamento europeo sobre IA de 2020 pide expresamente a los Estados miembros que «inviertan en sistemas de educación, formación profesional y aprendizaje permanente de alta calidad, adaptables e inclusivos, así como en políticas de reciclaje profesional y de mejora de las capacidades para los trabajadores de sectores que puedan verse gravemente afectados por la inteligencia artificial; destaca la necesidad de dotar a la mano de obra actual y futura de las capacidades necesarias en lectura, escritura, cálculo y competencias digitales, así como de competencias en ciencias, tecnología, ingeniería y matemáticas (STEM) y de competencias interpersonales transversales, como el pensamiento crítico, la creatividad y el emprendimiento; subraya que, en este contexto, debe prestarse especial atención a la inclusión de los grupos desfavorecidos».
En este sentido, ninguna innovación tecnológica puede suponer una erosión de los derechos de los trabajadores o el incumplimiento de las regulaciones vigentes. Como recoge Sánchez-Urán (2022: 8), «la innovación tecnológica social y jurídicamente responsable exige, en el sector del ordenamiento jurídico que lo disciplina, el Derecho Social, o más concretamente el Derecho del Trabajo y de la Protección (Seguridad) Social, el respeto de los derechos humanos asentados tanto en el acervo europeo (en los Tratados y la Carta de Derechos Fundamentales de la UE) como en el internacional (fundamentalmente a través de Convenios y Recomendaciones de la OIT) y en el ámbito interno español (con la Constitución Española al fondo)». Ello incluye el derecho de huelga, si bien la plataformización de la economía digital dificulta la asociación de los trabajadores, aislados en sus «habitaciones conectadas».
La innovación
complementaria es más
beneficiosa para la sociedad
porque incorpora las
capacidades humanas a la
producción, aumentando
la productividad
Analizando las principales declaraciones éticas internacionales sobre inteligencia artificial, como los Principios de Asilomar, la Declaración de Montreal para una inteligencia artificial responsable, los principios definidos por el IEEE (Institute of Electrical and Electronics Engineers) o las propuestas desarrolladas por el Grupo de Expertos de Alto Nivel sobre la inteligencia artificial de la Comisión Europea, cabe considerar cinco principios éticos orientadores del desarrollo de las tecnologías digitales, también con relación al ámbito del trabajo:
1. Minimizar los daños
Lo primero y fundamental es no dañar; es decir, el deber de no hacer daño, que abarca no solo las acciones intencionadas sino también a la imposición de riesgos de daño (por lo que se aplican la precaución y la prevención; esto es, todas las cautelas posibles antes de la introducción de un sistema de inteligencia artificial). Se considera tanto el posible daño relativo a los individuos como también a los colectivos, con especial atención a los individuos y grupos vulnerables y a los riegos existenciales o sistémicos.
Este principio implica la idea de seguridad (y ciberseguridad), entendida como un valor social que debe destacarse cuando los seres humanos interactúan con sistemas de decisión delegada como son los sistemas de inteligencia artificial. Esto incluye la protección laboral de los mencionados ghost-workers y también de todos los trabajadores implicados en la cadena de extracción de minerales y de producción de energía necesarios para el desarrollo de la digitalización, así como la de aquellos con dificultades de recapacitación y adaptación al cambio tecnológico.
Asimismo, se prestará especial atención en evitar los sesgos, tanto en la recopilación de los datos, como en su manejo y en el entrenamiento de algoritmos e instrumentos de inteligencia artificial, poniendo especial cuidado en no reproducir o incrementar los sesgos y desigualdades sociales ya existentes.
Se entiende por sesgo el prejuicio en nuestro modo de procesar la información, una tendencia a percibir de modo distorsionado la realidad, una predisposición. El sesgo es la propensión para beneficiar a un grupo y/o perjudicar a otro de manera injusta o éticamente inadmisible. La introducción de sesgos en las inteligencias artificiales da lugar a discriminación (por razón de género, raza, estatus económico…) y puede consolidar prejuicios y estereotipos existentes, reforzando la exclusión social y la estratificación. Es lo que se conoce como «injusticia algorítmica», que daña y perjudica a individuos y grupos.
2. Maximizar los beneficios
Los beneficios potenciales deben superar el posible riesgo para los sujetos, las comunidades y el medio ambiente. Esto se relaciona con la promoción del bienestar, el bien común y los Objetivos de Desarrollo Sostenible.
Los tratamientos de datos a través de la inteligencia artificial han de acreditar su necesidad, efectividad y orientación al bien común, acotando un propósito bien definido y determinado (proporcionalidad).
Este principio de beneficencia incluye la protección del medio ambiente y de las generaciones futuras. Para perseguir la sostenibilidad medioambiental y el compromiso con las generaciones futuras, el desarrollo de la tecnología y de los entornos digitales, entre ellos las infraestructuras vinculadas a la inteligencia artificial (nubes, centros de datos y de cálculo), se promoverá la eficiencia energética y de materias primas, favoreciendo la minimización del consumo de energía y materias, su extracción justa, el reciclado, y la utilización de energía renovable y limpia.
3. Autonomía
Los procesos de inteligencia artificial han de amparar el derecho de las personas a conservar la facultad de decidir qué decisiones tomar y a ejercer la libertad de elegir cuando sea necesario. Los humanos han de preservar el poder de decidir en última instancia qué decisiones tomar y cuáles delegar en sistemas de datos e inteligencia artificial. Este principio de autonomía conlleva escuchar y prestar atención a los individuos no solo como sujetos pasivos en relación con el uso y reutilización de sus datos sino como colaboradores y participantes activos, en una estrategia para innovar y generar mayor valor público.
Los sistemas basados en inteligencia artificial pueden vigilar y modificar adaptativamente el cerebro, afectando al propio sentido de autonomía e identidad de las personas y, en última instancia, a la forma en que se ven a sí mismas y a sus relaciones con los demás. Sofisticados algoritmos y técnicas de inteligencia artificial se aplican a grandes cantidades de datos para encontrar patrones estadísticos recurrentes que pueden ser usados para predecir y entender el comportamiento de las personas (perfilado) y manipularlas neuro-emocionalmente.
Por todo ello, se ha de proteger a los individuos contra el uso coercitivo de estas tecnologías y la posibilidad de que la tecnología pueda ser utilizada sin su consentimiento.
Por un lado, se protegerán los datos de carácter personal (privacidad) evitándose la re-identificación (los individuos pueden volverse identificables a partir de datos que, en primera instancia, son anónimos), la fuga de datos, la falta de transparencia en la recogida de datos y la elaboración de tipologías que pueden provocar discriminación de grupos.
Por otro lado, se preservará la identidad personal y la continuidad del comportamiento personal frente a modificaciones no consensuadas por terceros (privacidad mental) –en el marco de lo que se han llamado nuevos «neuroderechos humanos» protectores de la libertad cognitiva o autodeterminación mental: el derecho a la privacidad mental, el derecho a la integridad mental y el derecho a la continuidad psicológica–.
4. Justicia
La justicia en el ámbito de ciencia y tecnología se refiere de manera central a dos cuestiones básicas: el reconocimiento y la forma de asignar los recursos escasos a las personas.
El reconocimiento (inclusividad) supone tener en cuenta a todos los interesados (la diversidad de agentes y valores) en el proceso. Como se señala desde los modelos de investigación e innovación responsables (RRI), en todas las etapas de los procesos de investigación e innovación tecnológica deben utilizarse metodologías inclusivas y participativas. Asimismo, quienes por libre deseo no accedan al entorno digital, no pueden ser excluidos del uso y desarrollo de bienes y servicios (principio de no-exclusión).
Las tecnologías digitales
condicionan el sentido
de lo que consideramos
«buena vida», nuestra propia
autocomprensión y cómo
nos percibimos, así como
los deberes y compromisos
hacia los otros
La asignación requiere la búsqueda de la igualdad y la accesibilidad (equidad). Se ha de evitar una nueva brecha de desigualdad a causa de la inteligencia artificial, sobre la ya existente brecha digital. El acceso al entorno digital no puede estar condicionado ni por la complejidad tecnológica, ni por la falta de recursos, ni por opciones que obliguen a las personas a convertirse en usuarios de empresas concretas. En consecuencia, se impulsarán los algoritmos abiertos y el conocimiento compartido para favorecer la solidaridad y la distribución de los beneficios de la tecnología.
5. Explicabilidad
Dado que la ciencia de datos y la inteligencia artificial son tecnologías complejas que transforman la vida cotidiana de la población y afectan a ámbitos sensibles e importantes como la atención sanitaria, los derechos civiles y sociales, el crédito, los seguros, el derecho penal, el trabajo…, estos procesos deben poder ser explicables. Esto significa que se puede comprender su funcionamiento (inteligibilidad) y que se puede identificar el proceso de decisión, las personas implicadas y las consecuencias que se deriven (rendición de cuentas). Más allá de la mera transparencia, se facilitará la comprensión e interpretabilidad de los sistemas de inteligencia artificial, también a los trabajadores y a sus representantes, evitando en lo posible la arbitrariedad de las «cajas negras» y actuando proactivamente para ofrecer información a la ciudadanía (deber de publicidad activa con respecto a los algoritmos).
Este principio complementa los cuatro anteriores: Para que un sistema de inteligencia artificial tenga buenas consecuencias minimizando la posibilidad de daños, debemos ser capaces de entender el bien o el mal que se puede producir; para que un sistema promueva y no restrinja la autonomía, la «decisión sobre quién decide» debe estar informada mediante el conocimiento de cómo actuaría la inteligencia artificial en vez de nosotros; para que un sistema sea justo y alguien se haga cargo de los resultados negativos, es precisa la rendición de cuentas (trazabilidad) y la comprensión de porqué se han producido estos resultados.
Terminemos recordando que nuestra interdependencia no solo con respecto a los otros humanos sino también a la tecnología digital implica una concepción relacional del yo que nos configura como entornos sociotécnicos (homo digitalis).
Situados en esta concepción de nuestra identidad, hay que incidir en que los artefactos tecnológicos tienen moralidad, no son neutrales. Las tecnologías, y más las tecnologías digitales tan imbricadas, como hemos señalado, en nuestras vidas, no solo contribuyen a la eficiencia y la productividad, sino que configuran formas de poder y autoridad, modificando profundamente hábitos, costumbres o relaciones (laborales, afectivas, educativas…). En consecuencia, las tecnologías digitales condicionan el sentido de lo que consideramos «buena vida», nuestra propia autocomprensión y cómo nos percibimos, así como los deberes y compromisos hacia los otros. Es decir, las tecnologías digitales no solo transforman radicalmente los objetos y el entorno sino también a nosotros mismos, la organización social humana y nuestro sentido de la existencia, de ahí su carácter «disruptivo» y la necesidad de abordarlas ética y políticamente. •
PARTICIPACIÓN Y DIÁLOGO
Con el Tema del mes nos ponemos a la escucha. Le animamos a realizar sus comentarios al final de esta página; a compartir este tema en las redes sociales, con la etiqueta #IAyTrabajo. o enviando su aportación a participacion@noticiasobreras.es
Bibliografía
Castel, Robert (2010). El ascenso de las incertidumbres. Trabajo, protecciones, estatuto del individuo. México, FCE.
Pastor Bodmer, Alfredo (2022). «La revolución digital y el futuro del trabajo», en José Ramón Amor Pan y Carolina Villegas Galaviz (eds.), Huella digital: ¿Servidumbre o servicio?, Valencia, Tirant: 39-79.
Sánchez-Urán, María Yolanda (2021). «Robótica inclusiva: Rendimiento económico y empleo», ARBOR Ciencia, Pensamiento y Cultura, Vol. 197-802, octubre-diciembre 2021.
Zafra, Remedios (2017). El entusiasmo. Precariedad y trabajo creativo en la era digital, Barcelona, Anagrama.
Zuboff, Shoshana (2020). La era del capitalismo de la vigilancia, Barcelona, Paidós.
Investigador científico
Instituto de Filosofía
CSIC
One thought on “El trabajo en la era de la digitalización”
Comments are closed.