El desarrollo de la Inteligencia Artificial conlleva a discutir sobre su regulación. Sin embargo, ¿es necesario crear una política corporativa para IA?
Hace unos días la discusión sobre si es necesario regular la Inteligencia Artificial (IA) tomó un tono candente cuando en redes sociales dos de las grandes mentes de la tecnología actual se enfrentaron sobre sus posturas. Elon Musk, CEO de Tesla, Space X y fundador de PayPal, contra Mark Zuckerberg, CEO y fundador de Facebook. El primero a favor de que haya una regulación y se tengan cuidados especiales ante el riesgo de que las máquinas superen a la humanidad; el segundo por una postura más empresarial sobre que no es necesario aún fijar algún control, pues no hay nada concreto respecto al peligro de este desarrollo. Desde luego, podrás estar a favor de uno u otro, pero lo cierto es que esta discusión nos llevó a pensar si se necesita una política corporativa para IA.
KEY INSIGHT
Leyes de Robótica de Isaac Asimov:
- Un robot no debe dañar a un ser humano o, por su inacción, dejar que un ser humano sufra daño
- Un robot debe obedecer las órdenes dadas por los seres humanos, excepto cuando tales órdenes entren en conflicto con la Primera Ley
- Un robot debe proteger su propia existencia siempre y cuando tal protección no entre en conflicto con la Primera o Segunda leyes
Tú sabes que las innovaciones tecnológicas a menudo tienden a sobrepasar las actividades cívicas y humanas que inicialmente se pretendían apoyar. Siempre que un movimiento busca cambiar el mundo a través de la tecnología, debe tomar en cuenta algunas consideraciones éticas para que estos avances puedan continuar. Recordarás que desde los años cuarenta, cuando ya se estudiaba el desarrollo exponencial de la inteligencia artificial y el aprendizaje automático, se han planteado interrogantes sobre la viabilidad y la conveniencia de tales logros. Inclusive Isaac Asimov redactó sus Tres Leyes de Robótica en caso de que este escenario de los robots llegando al día a día de la humanidad comenzara.
Debido a las mejoras que has comenzado a ver en los temas de IA, es que alguien como Stephen Hawking haya desatado sus temores sobre que el desarrollo de la plena inteligencia artificial podría significar el fin de la raza humana. Una encuesta de Deloitte mostró a finales del año pasado que los Millennials (62%) ven en este desarrollo un motor de cambio, progreso y ganancias de productividad. La mayoría de los entrevistados creen que estos nuevos sistemas tienen el potencial de estimular la creatividad y abrir horizontes para futuras innovaciones.
La idea de promulgar una política corporativa para mediar los beneficios y las consecuencias de las actividades vinculadas a la AI en el futuro próximo no es nada nuevo. Recordarás, por ejemplo, que los gigantes digitales de Google, Facebook, Amazon, Microsoft e IBM fundaron en septiembre de 2016 una Alianza sobre la Inteligencia Artificial, una organización colaborativa cuyo objetivo básico es liderar los debates éticos sobre la IA bajo el pretexto filantrópico de educar al público.
Sin embargo, si bien se tiene en esta agrupación el objetivo declarado de poner en relieve la orientación ética y moral para el progreso en este campo, en realidad la alianza es un lobby que trabaja para promover los intereses comerciales de las empresas miembros. Al tomar la iniciativa de decidir la dirección que debe tomar el desarrollo de la IA, los socios están buscando prevenir por adelantado cualquier crítica moral que puedan enfrentar.
A pesar de este monopolio que ejercen hoy en día las grandes de la tecnología, es importante que si eres un emprendedor o empresario que usa plataformas o programas que utilicen la Inteligencia Artificial como base, se subraye la necesidad de, como en cualquier desarrollo, tener normas morales, inspiradas en los derechos humanos, destinadas a aprovechar la IA al servicio de la inteligencia humana y, por tanto, prevenir posibles abusos en el proceso de adopción de los sistemas. Y no es por el temor a un futuro Skynet, sino a un mal uso de estas tecnologías por parte de tus empleados o futuros clientes.
Una política corporativa para IA en tu día a día es importante en asuntos de seguridad de los sistemas inteligentes, así como lo es tener en el documento la colaboración de las autoridades y órganos políticos para que los principios se vuelvan vinculantes, a fin de proporcionar una reglamentación eficaz del desarrollo de la Inteligencia Artificial en el futuro. La tecnología y la ética no siempre están perfectamente sincronizadas, pero es tarea de todos y principalmente de los empresarios como tú, lograrlo. Si bien el camino hacia la regulación de las actividades vinculadas a la IA aún parece ser un camino muy largo, no está de menos que inicies al interior de tu compañía.

1 CTA Take automated follow-ups while you sip coffee!
Learn how Salesmate Email Sequences improve your productivity by 2x.
Explore Email Sequences
2 CTA Take automated follow-ups while you sip coffee!
Learn how Salesmate Email Sequences improve your productivity by 2x.
Explore Email Sequences
3CTA Take automated follow-ups while you sip coffee!
Learn how Salesmate Email Sequences improve your productivity by 2x.
Explore Email Sequences
4CTA Take automated follow-ups while you sip coffee!
Learn how Salesmate Email Sequences improve your productivity by 2x.
Explore Email Sequences