Muchos ahora usan IA, en realidad asumiendo una cosa: cuando los resultados aparecen, se consideran correctos.
Pero si realmente se integran en sistemas oficiales, esto es bastante peligroso. No puedes confirmar si realmente sigue el proceso que has diseñado, y mucho menos hacer un seguimiento posterior.
#Inference Labs tiene su gracia en esto. No están creando una IA más inteligente, sino resolviendo un problema más fundamental: ¿puedes demostrar que ese razonamiento realmente se ha llevado a cabo? Ellos convierten el razonamiento en algo verificable. Después de ejecutarlo, se puede comprobar, reproducir y demostrar, pero el modelo y las entradas siguen siendo confidenciales.
Esto en realidad es muy importante. No es que confíe en ti, sino que a nivel del sistema se sabe: este paso no ha sido manipulado. Por lo tanto, lo que cambia no es una aplicación concreta, sino la forma en que se produce la IA. Antes se usaba primero y luego se añadía un montón de controles externos. Ahora, el razonamiento en sí mismo es sólido. Y precisamente por eso, este método es más adecuado para escenarios serios. Finanzas, salud, sistemas institucionales, incluso protocolos en cadena, no pueden aceptar que algo que debería ser correcto esté a medias.
@inference_labs hace lo que dice, en pocas palabras, saca la IA de una caja negra y la devuelve a un cálculo verificable. Esto es muy fundamental.
Y la IA que realmente se quiere implementar a largo plazo, tarde o temprano, tendrá que superar esta barrera.
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Muchos ahora usan IA, en realidad asumiendo una cosa: cuando los resultados aparecen, se consideran correctos.
Pero si realmente se integran en sistemas oficiales, esto es bastante peligroso. No puedes confirmar si realmente sigue el proceso que has diseñado, y mucho menos hacer un seguimiento posterior.
#Inference Labs tiene su gracia en esto. No están creando una IA más inteligente, sino resolviendo un problema más fundamental: ¿puedes demostrar que ese razonamiento realmente se ha llevado a cabo? Ellos convierten el razonamiento en algo verificable. Después de ejecutarlo, se puede comprobar, reproducir y demostrar, pero el modelo y las entradas siguen siendo confidenciales.
Esto en realidad es muy importante. No es que confíe en ti, sino que a nivel del sistema se sabe: este paso no ha sido manipulado. Por lo tanto, lo que cambia no es una aplicación concreta, sino la forma en que se produce la IA. Antes se usaba primero y luego se añadía un montón de controles externos. Ahora, el razonamiento en sí mismo es sólido. Y precisamente por eso, este método es más adecuado para escenarios serios. Finanzas, salud, sistemas institucionales, incluso protocolos en cadena, no pueden aceptar que algo que debería ser correcto esté a medias.
@inference_labs hace lo que dice, en pocas palabras, saca la IA de una caja negra y la devuelve a un cálculo verificable. Esto es muy fundamental.
Y la IA que realmente se quiere implementar a largo plazo, tarde o temprano, tendrá que superar esta barrera.
@inference_labs #Yap @KaitoAI #KaitoYap #Inference