La revolución tecnológica liderada por OpenAI y sus modelos de lenguaje, como ChatGPT y GPT-4, ha planteado importantes interrogantes sobre el futuro laboral. Según una investigación de OpenAI en Estados Unidos, aproximadamente el 19% de los trabajadores podrían ver afectado al menos el 50% de sus tareas debido a esta inteligencia artificial.
Lo sorprendente es que esta influencia no discrimina según el nivel salarial, ya que los empleos de mayores ingresos también se encuentran en riesgo de ser reemplazados en parte por estas poderosas IA. Sin embargo, existe un rayo de esperanza: OpenAI identificó 34 profesiones que difícilmente encontrarán sustitutos en el reino de la inteligencia artificial.
Profesiones que chatgpt no pdra reemplazar
Es importante mencionar que recientemente Sam Altman, líder de OpenAI, testificó ante el Congreso de Estados Unidos sobre las innovaciones que su inteligencia artificial está trayendo al mundo, generando un gran revuelo mediático en torno a su nombre.
Estas profesiones, según la investigación de OpenAI, se consideran “Ocupaciones sin tareas expuestas” y, al menos por ahora, están a salvo de la revolucionaria ChatGPT y GPT-4, así como de otros modelos de lenguaje. Sin embargo, esto no garantiza que en el futuro otras empresas o incluso OpenAI puedan desarrollar máquinas capaces de reemplazar ciertas tareas dentro de estos trabajos.
El Proyecto Renacimiento Energético ha desarrollado una plataforma de vanguardia en ciberseguridad para proteger la infraestructura del sistema eléctrico y energético europeo (European Power and Energy System, EPES). Esta innovadora herramienta tiene la capacidad de detectar y hacer frente a ataques cibernéticos a gran escala, así como salvaguardar la privacidad, todo ello a un costo razonable. El proyecto, concluido en septiembre de 2022, se centró en impulsar la investigación y la innovación en materia de ciberseguridad en el ámbito de EPES.
El sistema energético y eléctrico europeo (EPES) es uno de los sistemas ciberfísicos más complejos a nivel mundial. Un ataque que afecte esta infraestructura crítica podría tener repercusiones en cascada. El objetivo principal del Proyecto Renacimiento Energético fue proporcionar un escudo cibernético para EPES, con el fin de abordar amenazas de ciberseguridad a gran escala y proteger la privacidad, garantizando así la continuidad de las operaciones y minimizando los efectos en la infraestructura en sí misma.
El Proyecto Renacimiento Energético ha desarrollado una plataforma de vanguardia en ciberseguridad
El Proyecto Renacimiento Energético se centró en tres objetivos principales. En primer lugar, fortalecer la defensa cibernética de EPES mediante el diseño de conceptos de protección innovadores, fomentando la resiliencia y la responsabilidad, y adaptándolos para su implementación en toda Europa. El equipo de Renacimiento Energético también realizó mejoras en los sistemas existentes, mediante la adaptación, actualización e integración de una serie de herramientas, las cuales se validaron en pilotos a gran escala.
A través de cinco pilotos internacionales a gran escala, que abarcaron toda la cadena de valor, desde la generación hasta el consumo, el proyecto evaluó sus desarrollos en escenarios del mundo real en diferentes países europeos.
En segundo lugar, se buscó mejorar la coordinación en el descubrimiento, respuesta y recuperación de incidentes cibernéticos en EPES europeo. Para lograrlo, los miembros del proyecto crearon una plataforma descentralizada de concienciación sobre la ciberseguridad, que proporciona información a las partes interesadas autorizadas en toda Europa. En tercer lugar, se impulsó la investigación y la innovación en el campo de la ciberseguridad de EPES.
El consorcio del Proyecto Renacimiento Energético está formado por 25 socios que abarcan una amplia gama de experiencia en ciberseguridad de EPES, incluyendo generadores de energía, proveedores de tecnología, minoristas y pymes. Estos socios provienen de diversos sectores energéticos, como socios comerciales, académicos, DSO (Operadores de Redes de Distribución), TSO (Operadores de Sistemas de Transporte) y usuarios finales. Capgemini (Francia) coordinó el proyecto, que contó con la participación de socios de Francia, Grecia, Noruega, Luxemburgo, Eslovenia, España, Italia, Rumanía, Alemania, Finlandia y Países Bajos. Atos fue el socio español en el proyecto.
La Comisión del Mercado Interno y la Comisión de Libertades Civiles del Parlamento Europeo han aprobado un mandato de negociación para establecer la primera legislación sobre inteligencia artificial. El objetivo de los eurodiputados es garantizar que los sistemas de IA dentro de la Unión Europea estén supervisados por personas y sean “seguros, transparentes, trazables, inclusivos y respetuosos con el medio ambiente”.
Estas medidas, discutidas durante más de dos años, sentarán las bases para la creación de una legislación pionera que permita el control de las tecnologías emergentes, restringiendo su uso en sistemas de reconocimiento facial o de crédito social. Asimismo, se ha puesto énfasis en definir adecuadamente qué se entiende por sistema de inteligencia artificial, con el fin de que la legislación sea aplicable tanto a los sistemas actuales, como ChatGPT, como a los futuros y sea tecnológicamente neutral.
La propuesta legislativa plantea establecer una regulación basada en el nivel de riesgo inherente de cada sistema de IA, y establece una serie de obligaciones para proveedores y usuarios en función de este nivel de peligrosidad. Los sistemas más peligrosos, calificados como “inaceptables”, estarán completamente prohibidos dentro de la jurisdicción de la Unión Europea, tales como aquellos que empleen técnicas de manipulación subliminal, se aprovechen de las vulnerabilidades de individuos o colectivos, o clasifiquen a las personas en función de sus comportamientos, emociones o poder adquisitivo.
En la larga y compleja lista de propuestas legislativas, con diversos desacuerdos entre políticos conservadores y progresistas, el borrador detalla la intención de prohibir el uso de la IA en los siguientes casos:
El proyecto de ley se someterá a votación plenaria en el Parlamento Europeo en junio, antes de que se acuerden los términos definitivos entre los representantes del Parlamento, Consejo y Comisión de la Unión Europea.
Una vez que se ultimen los detalles y el proyecto se convierta en ley, habrá un período de dos años para que los afectados puedan cumplir con la normativa, similar a lo ocurrido con la aprobación de la DSA hace unos meses, la cual afecta a empresas como Twitter o Facebook.
Google I/O 2023 presenta a PaLM 2: El nuevo modelo de lenguaje masivo impulsado por inteligencia artificial
Durante la conferencia de Google I/O 2023, la inteligencia artificial ha sido uno de los temas más destacados, y una de las grandes novedades presentadas por los de Mountain View es PaLM 2, su nuevo modelo de lenguaje masivo. Este modelo ya está impulsando 25 productos de la compañía, incluyendo Bard.
PaLM 2 es el sucesor de PaLM, lanzado en 2022, y está disponible en diferentes tamaños y con diferentes denominaciones, incluyendo Gecko, Otter, Bison y Unicorn. De hecho, Gecko es lo suficientemente pequeño como para ejecutarse en un smartphone.
Lo más interesante es que soporta más de 100 idiomas y también es capaz de escribir código, lo que no sorprende considerando que Bard ha sumado recientemente la característica de ayudar a programar gracias a esta tecnología. Durante la demostración, la IA fue capaz de identificar errores en un bloque de código y añadir comentarios en coreano en cada línea.
El resultado del trabajo de dos equipos de Google, Google Brain y DeepMind, que se han fusionado recientemente bajo el nombre Google DeepMind. Ambos están trabajando en Gemini, su modelo fundacional de nueva generación, sobre el cual no se ha revelado mucha información aún.
Además, según Google, el set de datos utilizado para entrenar a PaLM 2 incluye documentos científicos y sitios web con expresiones matemáticas, lo que le permite tener “capacidades mejoradas en lógica, razonamiento de sentido común y matemáticas” comparado con su predecesor.
La compañía también ha mencionado que el modelo ha sido preentrenado en una importante cantidad de datos públicos de código abierto, lo que le permite comprender no solo lenguajes de programación de uso masivo como Python y JavaScript, sino también otros de uso más específico, como Prolog, Verilog y Fortran.
Además de impulsar la capacidad de Bard para crear, interpretar o debuggear bloques de código, PaLM 2 también brinda soporte de chatbot en idiomas como japonés y coreano, y sus implementaciones también se han expandido a Workspace.
Google también ha destacado los usos específicos de PaLM 2 en campos como la medicina y la ciberseguridad. Med-PaLM 2 se presentó en abril pasado como parte de ese esfuerzo para “responder con mayor precisión y seguridad a las preguntas médicas” a través de sus plataformas. En la demostración se pudo ver un ejemplo de la IA siendo capaz de interpretar una lesión a través de la imagen de una radiografía.
La organización no gubernamental (ONG) Reporteros Sin Fronteras ha instado a Linda Yaccarino, la nueva directora ejecutiva (CEO) de Twitter, designada este viernes, a combatir la desinformación en esta red social. Para lograr esto, la organización ha presentado diez recomendaciones que podrían mejorar el rendimiento de la plataforma en favor del periodismo. La ONG cree que Twitter atraviesa un momento difícil desde que fue adquirida por el magnate Elon Musk en octubre de 2022 y que la reparación del daño causado por el empresario depende de Yaccarino. Reporteros Sin Fronteras ha incluido sus diez recomendaciones al final del comunicado para ayudar a “reparar” Twitter.
Elon Musk finalmente ha cedido su puesto como CEO de Twitter a Linda Yaccarino, ex directora de publicidad y alianzas de NBCUniversal, quien tomará las riendas de la red social dentro de seis semanas. El propietario de la red social, que será el subordinado y el patrón de la nueva jefa de Twitter, ha encargado a Yaccarino “transformar la plataforma en X, la aplicación para todo”. Vincent Berthier, jefe de la sección de tecnología de la ONG, ha añadido que juzgarán a Linda Yaccarino por su capacidad para enfrentarse al multimillonario y apagar el fuego que él provocó.
Las recomendaciones de Reporteros Sin Fronteras para mejorar Twitter son las siguientes:
Google ha tomado la decisión de incursionar en el mundo de la inteligencia artificial. Después de anunciar su propio chatbot y la intención de expandirlo a otras plataformas, la compañía ha revelado detalles sobre su estrategia de competir en el mercado.
Bard es la piedra angular de esta estrategia, y está basado en PaLM 2, un modelo de lenguaje que permite el aprendizaje y funcionamiento de la plataforma. La compañía ha estado integrando esta tecnología en sus usuarios a través de iniciativas como Med-PaLM 2, que permite hacer preguntas médicas con mayor precisión y seguridad, y que pronto estará disponible para terceros a través de Cloud.
Google lanza su inteligencia artificial Bard
La empresa ha confirmado que Bard está disponible en 180 países en todo el mundo a través de una solicitud mientras se finaliza el período de prueba y se lanza oficialmente. Es por eso que el chatbot actualmente solo tiene soporte en inglés, japonés y coreano, aunque el objetivo es agregar soporte para los 40 idiomas más hablados del mundo.
Además de la capacidad de generar contenido en texto, Bard también puede hacerlo en imágenes, aprovechando la tecnología de Google. Por ejemplo, si alguien está buscando ideas de decoración para su hogar, puede tomar una foto de una de sus mesas con Lens y pedirle a Bard que genere elementos que se adapten a ese espacio.
La Casa Blanca anunció este jueves que Estados Unidos invertirá 140 millones de dólares para establecer siete nuevos institutos de investigación en inteligencia artificial (IA), con el objetivo de impulsar la innovación responsable y asegurar que los avances en la tecnología sirvan al bien común. Funcionarios de la administración de Joe Biden informaron que estos centros se unirán a los 18 institutos de investigación en IA ya en funcionamiento en el país.
En total, Estados Unidos habrá invertido alrededor de 500 millones de dólares para “apoyar la innovación responsable que impulsa el bien común”, según la directora de la Oficina de Políticas Tecnológicas y Científicas de la Casa Blanca, Arati Prabhakar. Este anuncio coincidió con la visita de los directivos de Google, Microsoft, OpenAI y Anthropic a la Casa Blanca, para discutir con la vicepresidenta Kamala Harris sobre cómo mitigar los posibles riesgos de la IA.
En la actualidad, la tecnología y la automatización son cada vez más comunes en las empresas, y muchas de ellas han optado por implementar la inteligencia artificial (IA) para mejorar la eficiencia de sus procesos. Sin embargo, esta tendencia ha generado preocupación y miedo en los trabajadores argentinos, quienes se cuestionan cómo la IA afectará sus empleos y sus condiciones laborales.
De acuerdo con una encuesta realizada por Bumeran, aunque la mayoría de las personas tiene una opinión positiva sobre la IA y su impacto en el trabajo cotidiano, también experimentan temor por el avance tecnológico.
Según los resultados del estudio, el 79% de los trabajadores considera que la inteligencia artificial tendrá un impacto positivo en sus labores diarias, mientras que solamente un 9% cree que este impacto será negativo. Resulta llamativo que, a pesar de esta opinión mayoritariamente positiva, muchos trabajadores siguen sintiendo miedo e inquietud acerca del avance de la IA en el mundo laboral.
Los ministros responsables de digitalización y tecnología del G7 tuvieron una reunión en Japón donde acordaron la necesidad de promover un uso responsable de la inteligencia artificial (IA). Están preocupados por el avance de estos sistemas y su potencial uso para socavar la democracia y vulnerar la privacidad de las personas.
En un comunicado conjunto, los ministros del Grupo de los Siete países más desarrollados (G7) destacaron la necesidad de hacer un balance a corto plazo de las oportunidades y desafíos de la IA y continuar promoviendo la seguridad y la confianza en ellas. La declaración cita cinco principios clave para regular el uso de la IA y otras tecnologías emergentes, como el estado de derecho, las garantías legales, la democracia y el respeto por los derechos humanos y el aprovechamiento de oportunidades para promover la innovación.
Durante la reunión celebrada en Takasaki, unos 107 kilómetros al noroeste de Tokio, los ministros también decidieron respaldar un plan para crear entornos abiertos y propicios para la innovación responsable mediante la IA. Este plan insta a los distintos países a tener una participación activa en el desarrollo de estándares internacionales sobre la regulación de la IA y a promover el diálogo sobre temas como la evaluación de riesgos.
En el marco del “Segundo Encuentro Provincial de Profesionales de la Higiene y Seguridad en el Trabajo, y Salud Ocupacional”, acompañamos a Mario Vera en la presentación de su plataforma, HANDS. La misma fue creada para permitirle a las industrias, profesionales y estudiantes, realizar todas las tareas de SySO en un mismo lugar. Gracias Mario por confiarnos el desarrollo de esta plataforma y permitirnos seguir acompañándote en este proceso de mejora continua!!