8 de abril de 2023

Musk lucha por detener la IA, mientras Gates la defiende: ¿qué riesgos tiene para la humanidad?




El CEO de SpaceX, Tesla y Twitter, Elon Musk, y el cofundador de Apple Steve Wozniak publicaron la semana pasada una carta abierta para solicitar una interrupción de seis meses en el desarrollo de sistemas de inteligencia artificial (IA) más potentes que el GPT-4.




La misiva, que ya reúne más de 16.000 firmas, manifiesta el temor a que «una carrera fuera de control» entre programas como ChatGPT de OpenAI, el ‘chatbot’ Bing AI de Microsoft y Bard de Alphabet podría conllevar «profundos riesgos para la sociedad y la humanidad».

Sin embargo, algunos desarrolladores y especialistas, e incluso el cofundador de Microsoft, Bill Gates, no dudaron en posicionarse en contra de la petición y en defender el avance de la nueva tecnología. «No creo que pedirle a un grupo en particular que haga una pausa resuelva los desafíos», sostuvo Gates este lunes. «Claramente, hay enormes beneficios en estas cosas», aseguró, agregando que, sin embargo, está de acuerdo en que hay que «identificar las áreas más complicadas».

¿En qué se centran las preocupaciones?

A la hora de la verdad, hay que reconocer que las preocupaciones de Musk y Wozniak son bastante comprensibles, ya que señalan que las compañías que se dedican a la IA «crean mentes digitales cada vez más poderosas, que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de forma fiable».

Al mismo tiempo, los sistemas de IA a menudo presentan fallos en la programación y problemas de privacidad, así como pueden difundir información errónea, especialmente si se usan de forma malintencionada. Por otro lado, también podrían reemplazar a los trabajadores humanos a la hora de ejercer, por ejemplo, de asistentes de atención al cliente, ahorrando los pagos salariales a las empresas, precisa CNBC.

Sin embargo, al menos una de las compañías que se dedica a la investigación de IA y tiene su propio ‘chatbot’ no comparte tales inquietudes, ya que considera que las tecnologías actuales no «plantean una preocupación inminente». Se trata de Anthropic, con sede en San Francisco, que recibió una inversión de 400 millones de dólares de Alphabet.

Según la compañía, los sistemas de IA podrían volverse «mucho más poderosos» en la próxima década y para «ayudar a reducir los riesgos» ya deberían empezar a construirse barreras limitadoras. El único problema consiste en que Anthropic aún no tiene claro cuáles son esas barreras.

Por otro lado, el CEO de OpenAI, Sam Altman, reconoció la semana pasada que «un marco regulatorio global efectivo que incluya la gobernabilidad democrática» es uno de los elementos «que necesitamos para un buen futuro» compartido con la inteligencia artificial general (AGI). Pero Altman, cuya compañía financiada por Microsoft fabrica ChatGPT y ayudó a desarrollar el ‘chatbot’ Bing, no especificó qué podrían implicar esas pautas.

A su vez, Richard Socher, investigador de IA y director ejecutivo de You.com, una empresa de motores de búsqueda respaldada por IA, insistió en que no hay que exagerar la inmediatez de las posibles amenazas para no crear un pánico innecesaria alrededor del tema, ni tampoco alentar a utilizar la tecnología con fines maliciosos. Socher asevera que las propuestas de la carta abierta de Musk y Wozniak son «imposibles de hacer cumplir y abordan el problema en el nivel equivocado».

¿Hay una posible solución?

Debido a que la carta de Musk y Wozniak no ha obtenido demasiado apoyo por parte de los creadores de IA, es muy poco probable que acepten voluntariamente cesar su actividad por el período de medio año, señala CNBC. Una opción más creíble parece ser el establecimiento de una mayor regulación por parte de los Gobiernos en el desarrollo y la capacitación de los sistemas.

Stuart Russell, científico informático de la Universidad de Berkeley e investigador líder en IA, quien también firmó la misiva, indicó que tales regularizaciones deberían implementarse antes de que la tecnología avance más, pese a que una pausa realmente también jugaría a favor de las compañías creadoras, ya que les permitiría demostrar que sus trabajos «no presentan un riesgo indebido».

Hay que destacar que tanto las personas que firmaron la carta como las que se opusieron a ella coinciden en una idea muy importante: es esencial prevenir los peores escenarios que podrían surgir a causa del rápido desarrollo de la IA. Esta conclusión significa que es necesario evitar que la tecnología nos supere en inteligencia a los humanos y mantener la capacidad de controlarla de manera efectiva.

Fuente: elpais.cr

SÍGUENOS EN GOOGLE NEWS



MÁS NOTICIAS