¿Se puede garantizar Inteligencia Artificial basada en la ética? -Roboética
- cm6166
- 13 jul 2022
- 3 Min. de lectura
El investigador Gianmarco Veruggio asingó el término roboética en alusión a la ética de la robótica, un campo de la ética aplicada que estudia las implicaciones positivas y negativas de la robótica. El objetivo es evitar el mal uso de los robots y de productos y servicios basados en la inteligencia artificial (IA) contra la humanidad.
“Dado que la IA se encuentra cada vez en más y más sectores de nuestras vidas (trabajo, educación, ocio, relaciones sociales, etc.), los efectos que los algoritmos detrás de esas aplicaciones de la IA pueden tener sobre las personas, la sociedad y el mundo entero son cada vez potencialmente mayores”, afirmó Joan Casas-Roma, investigador de los Estudios de Informática, Multimedia y Comunicación de la UOC.

“Quienes tenemos que incorporar los códigos éticos somos las personas que programamos las máquinas y que tomamos decisiones con los datos que estas nos brindan“, señaló Anna Clua, profesora de los Estudios de Informática, Multimedia y Comunicación de la UOC, y añadió que “las máquinas no piensan. Hacen”. Según Clua, el uso de la IA debe ser ético por definición allá donde se aplique, “ya sea en las aplicaciones de nuestros teléfonos móviles o en los algoritmos con los que los hospitales criban las urgencias. El reconocimiento de los derechos de las personas, así como el cumplimiento de las leyes (como la de protección de datos), es una condición sine qua non de la utilización de la IA desde todos los campos”, afirmó.
Hay un campo que se está investigando en el área de la llamada moralidad artificial. Se trata de la posibilidad de crear agentes morales artificiales o artificial moral agents (AMAs). Estos agentes incorporarían, como parte de su código y de los procesos de razonamiento seguidos, “una forma de identificar, interpretar y valorar la dimensión moral de las decisiones que se toman para asegurarse de que dichas decisiones son éticamente aceptables”. Se trata de un reto que se enfrenta a cómo representar, computacionalmente, algo tan complejo y contextual como la ética.
“La ética, tal y como la entendemos vivida en una sociedad humana, tiene que ver con unos principios generales, pero también con las particularidades de cada caso, con los derechos humanos y el espacio y el potencial de crecimiento que toda persona debería poder tener, además de tener sus propias variaciones culturales e históricas. Antes de poder integrar un código moral general en una IA, seguramente deberíamos poder capturar y representar toda esa complejidad y contextualidad en un lenguaje tan específico como el lenguaje computacional y matemático. Y ese es, ahora mismo, un reto que tiene más de humano, que de tecnológico”, afirmó Joan Casas-Roma.
Para hacer frente a ese reto, los expertos consideran imprescindible la implicación de profesionales de todos los ámbitos, ya que los datos están presentes en todos los sectores. No sirve decir que son competencia única del campo de las ingenierías o las ciencias de datos. El buen uso de la IA compete a los cuadros profesionales de las administraciones públicas y de las empresas privadas de cualquier ámbito, ya se use a gran escala o a pequeña escala.
Cuando estás en busca de un proveedor de Tecnología, es necesario que valores cada aspecto de estos, para que obtengas un sistema funcional y que no ponga en duda la ética de tu empresa.
Consulta tu proyecto de desarrollo de software con nosotros.
fuente:cio.com.mx
Comments