<img height="1" width="1" style="display:none" src="https://www.facebook.com/tr?id=424918317698648&amp;ev=PageView&amp;noscript=1">

Telcel Empresas Articulos

Los expertos aseguran que es imposible que la Inteligencia Artificial se vuelva contra su creador, pues las máquinas no pueden compartir valores humanos.

El debate es importante: ¿qué riesgos hay de que la inteligencia artificial pueda volverse en nuestra contra a futuro? Hay dos posturas: una parte argumenta que si una máquina logró inteligencia avanzada, automáticamente conocería y se preocuparía por los valores humanos y no representaría una amenaza. El lado opuesto sostiene que la inteligencia artificial querría borrar a los humanos, ya sea por venganza o por un deseo intrínseco de sobrevivir.


La tesis de la ortogonalidad sugiere que no podemos asumir alegremente que una superinteligencia necesariamente compartirá alguno de los valores finales estereotípicamente asociados con la sabiduría y el desarrollo intelectual en los seres humanos.

Sin embargo, los estudiosos de este tema aseguran que ambos puntos están equivocados, pues hay pocas razones para creer que una superinteligencia necesariamente compartirá valores humanos, y menos la posibilidad de creer que pondría valor intrínseco en su propia supervivencia. Estos argumentos, afirman, cometen el error de antropomorfizar la inteligencia artificial (AI), proyectando las emociones humanas sobre una entidad que es fundamentalmente ajena.

 

Si reflexionas por un momento sobre la inmensidad del espacio de las mentes posibles, podrías entender más del tema. Por ejemplo, en este espacio abstracto, las mentes humanas forman un pequeño grupo. Considera a dos personas que parecen muy diferentes, tal vez Donald Trump y Barak Obama. Las diferencias de personalidad entre estos dos individuos pueden parecer casi lo máximo posible. Pero esto se debe a que nuestras intuiciones están calibradas en nuestra experiencia. Sin embargo, si nos alejamos y consideramos el espacio de todas las mentes posibles, debemos concebir estas dos personalidades como clones virtuales. Ciertamente, en términos de arquitectura neuronal, Trump y Obama son casi idénticos. Imagínense sus cerebros acostados uno al lado del otro en un tranquilo reposo.

 

Tu cerebro fácilmente los reconocería como dos de una especie. Incluso podría ser incapaz de decir qué cerebro pertenece a quién. Si miramos más de cerca, estudiando la morfología de los dos cerebros bajo un microscopio, esta impresión de similitud fundamental sólo se fortalecería: vería la misma organización lamelar de la corteza, con las mismas áreas cerebrales, formadas por los mismos tipos de neuronas, empapados en el mismo baño de neurotransmisores.

 

A pesar de que la psicología humana corresponde a un pequeño lugar en el espacio de las mentes posibles, existe una tendencia común a proyectar atributos humanos en una amplia gama de sistemas cognitivos artificiales. Una inteligencia artificial puede ser mucho menos humana en sus motivaciones. No necesita preocuparse intrínsecamente sobre ninguna cosa. No hay nada paradójico en que su única meta final sea contar los granos de arena en un reloj, o calcular la expansión decimal de Pi.

 

De hecho, sería más fácil crear una IA con objetivos simples, y casi imposible construir una que tuviera un conjunto de valores y disposiciones humanas. Compare lo fácil que es escribir un programa que mide cuántos dígitos de pi se han calculado y almacenado en la memoria, con lo difícil que sería crear un programa que mida de forma fiable el grado de realización de algún objetivo más significativo: el florecimiento humano, digamos, o la justicia global.

 

Una IA cuyo único objetivo final es contar los granos de arena del reloj se preocuparía instrumentalmente de su propia supervivencia para lograr esto. La mayoría de los seres humanos parecen poner algún valor final en su propia supervivencia. Esto no es una característica necesaria de los agentes artificiales: algunos pueden estar diseñados para no colocar ningún valor final en su propia supervivencia. Sin embargo, muchos agentes que no se preocupan intrínsecamente por su propia supervivencia, bajo una amplia gama de condiciones, cuidan instrumentalmente de su propia supervivencia para lograr sus metas finales.

 

La tesis de la ortogonalidad sugiere que no podemos asumir alegremente que una superinteligencia necesariamente compartirá alguno de los valores finales estereotípicamente asociados con la sabiduría y el desarrollo intelectual en los seres humanos, como la curiosidad científica, la preocupación benevolente por los demás, la iluminación espiritual y la contemplación.

 

De ahí que los expertos en la materia aseguren que no hay ningún peligro de que una inteligencia artificial pueda volverse en nuestra contra por ella misma, sino más bien por la programación de un humano que busque la destrucción de su propia especie.

Ebook: Big Data para PYMES ¿se puede?

Take automated follow-ups while you sip coffee!

1 CTA Take automated follow-ups while you sip coffee!

Learn how Salesmate Email Sequences improve your productivity by 2x.

Explore Email Sequences
Take automated follow-ups while you sip coffee!

2 CTA Take automated follow-ups while you sip coffee!

Learn how Salesmate Email Sequences improve your productivity by 2x.

Explore Email Sequences
Take automated follow-ups while you sip coffee!

3CTA Take automated follow-ups while you sip coffee!

Learn how Salesmate Email Sequences improve your productivity by 2x.

Explore Email Sequences
Take automated follow-ups while you sip coffee!

4CTA Take automated follow-ups while you sip coffee!

Learn how Salesmate Email Sequences improve your productivity by 2x.

Explore Email Sequences

Topics: #Internet, #Productividad, #ServM2M, #SolucionesM2M, #InteligenciArtificial, #Humanos