¿Es AI la próxima revolución industrial? ¡Insights de DWF Labs ‘Andrei Grachev!

El futuro de AI: Insights de Andrei Grachev de DWF Labs en la próxima ola de la automatización

La creciente financiación hacia la inteligencia artificial (IA) indica una era probable de una automatización extensa, posiblemente superando el impacto de la revolución industrial. Como todos los avances tecnológicos, es probable que los sistemas de IA encuentren problemas durante su creación. El refinamiento persistente será crucial para la aplicación ética y maximizar el potencial de estos agentes de IA.

En el evento de consenso de Hong Kong, Beincrypto habló con Andrei Grachev, el socio gerente de DWF Labs, con respecto a los obstáculos principales que enfrentan los agentes de IA mientras luchan por una aceptación generalizada, así como posibles escenarios de su uso extenso.

Sectores tecnológicos tradicionales y Web3 abrazan ai

Cada vez es más claro que la incorporación de inteligencia artificial (IA) se está convirtiendo rápidamente en una necesidad en lugar de una opción. Las principales compañías tecnológicas como Meta, Amazon, Alphabet y Microsoft han declarado su intención de invertir alrededor de $ 320 mil millones en tecnología de IA y centros de datos para 2025.

Como analista, me encuentro reflexionando sobre el emocionante anuncio realizado por el presidente Trump durante su primera semana en el cargo: Stargate, una innovadora empresa conjunta privada, encabezada por Operai, Softbank y Oracle, con una visión de revolucionar el desarrollo de centros de datos de IA Estados Unidos. Esta asociación innovadora tiene como objetivo construir hasta 20 centros de datos de IA masivos en todo el país.

El costo inicial proyectado es de alrededor de $ 100 mil millones, mientras que el crecimiento futuro podría aumentar esta cifra a un potencial de $ 500 mil millones para el año 2029.

Las iniciativas 3D o Web3 están dedicando de manera similar los recursos a los avances de inteligencia artificial (IA). Recientemente, DWF Labs, una destacada firma de capital de riesgo en el sector de criptomonedas, presentó un fondo de $ 20 millones destinado a fomentar un rápido desarrollo en tecnologías de IA autónomas.

Este mes, The Near Foundation, un partidario del Protocolo cercano, presentó un fondo de $ 20 millones destinado a impulsar la creación de agentes autónomos y verificables basados ​​en tecnología cercana.

Según la declaración de Grachev para ser incrypto, parece claro que la historia indica que es probable que cualquier cosa capaz de automatización sea automatizada, y es probable que tanto los procedimientos comerciales como las actividades cotidianas eventualmente sean manejadas por agentes de inteligencia artificiales.

.

Pero a medida que el desarrollo de IA acelera, el potencial para su mal uso se convierte en una preocupación creciente.

Uso malicioso de agentes de IA

En el ámbito de la Web3, los agentes de inteligencia artificial (IA) se están moviendo rápidamente hacia el uso común. Estas entidades inteligentes aportan una amplia gama de funcionalidades, como el análisis de mercado e incluso el comercio de criptomonedas autónomos.

Por otro lado, a medida que AI se vuelve más profundamente arraigada, provoca obstáculos significativos. Existe una creciente preocupación por la aplicación indebida de la IA por parte de individuos mal intencionados, que podrían manifestarse de varias maneras, como intentos básicos de phishing o ataques complejos de ransomware.

Desde finales de 2022, la fácil accesibilidad de la tecnología AI avanzada ha transformado significativamente los procesos de creación de contenido, sin embargo, también ha atraído a usuarios maliciosos con el objetivo de usar mal esta tecnología. Esta distribución generalizada de la potencia computacional ha amplificado las habilidades de los adversarios y posiblemente ha facilitado que los actores de amenazas menos calificados se unan a la refriega.

Basado en los resultados de un informe de Entust, el número de falsificaciones de documentos digitales ayudados por inteligencia artificial ha superado las falsificaciones físicas y ha experimentado un aumento significativo del 244% en 2024 en comparación con el año anterior. Mientras tanto, Deepfakes comprendió aproximadamente el 40% de todas las instancias de fraude biométrico.

Según Grachev, actualmente se está explotando para actividades fraudulentas. A menudo se emplea para chats de video engañosos donde las personas son retratadas falsamente y se manipulan sus voces.

Las instancias anteriores de este engaño se han presentado prominentemente en los informes de los medios. Por ejemplo, la semana pasada, un empleado en el departamento de finanzas de una corporación global con sede en Hong Kong aprobó involuntariamente un pago de $ 25 millones a los estafadores que emplearon tecnología Deepfake.

Durante una videoconferencia, un empleado pensó que estaba interactuando con sus compañeros de trabajo, incluido el jefe financiero de la compañía. Inicialmente incierto, siguió el pago una vez que todos parecían genuinos y legítimos, según las cuentas. Desafortunadamente, resultó más tarde que todos los participantes eran profundos artificiales.

De la adopción temprana a la aceptación convencional

Como analista, comparto la perspectiva de Grachev de que los usos maliciosos son un aspecto inevitable en la evolución de las nuevas tecnologías. Es importante reconocer que los avances tecnológicos a menudo comienzan con fallas iniciales, que disminuyen gradualmente a medida que la tecnología madura. Para ilustrar este punto, permítanme citar dos instancias del pasado: los primeros días de la World Wide Web y Bitcoin. Ambas tecnologías inicialmente estaban plagadas de vulnerabilidades, pero con el tiempo, estos problemas se han abordado y las tecnologías se han vuelto más seguras y confiables.

Señaló que los primeros días de Internet se asociaron principalmente con sitios web de contenido para adultos. Del mismo modo, Bitcoin tenía sus orígenes vinculados a transacciones de drogas ilegales, pero con el tiempo, ambos han evolucionado y se han vuelto más legítimos.

Múltiples fuentes están de acuerdo con el punto de vista de Grachev. Postulan que el sector del entretenimiento para adultos contribuyó significativamente al uso inicial y al avance de Internet. No solo ofreció un mercado sustancial, sino que también encabezó tecnologías como videograbadoras, transmisión de video, realidad virtual y plataformas de comunicación en diversas formas.

El entretenimiento para adultos a menudo estimuló la ola inicial de adopción de tecnología entre los consumidores.

Al adoptar y usar rápidamente nuevas ideas de manera efectiva, especialmente cuando satisfacen las necesidades de sus usuarios, con frecuencia allana el camino para una aceptación más amplia en la cultura popular.

Inicialmente, se trataba de divertirse, lo que atrajo a numerosas personas. Con esta multitud comprometida, podría construir algo significativo, según Grachev.

Como inversor criptográfico, con el tiempo, se han implementado medidas para regular y limitar la disponibilidad frecuente y el acceso al contenido de adultos en línea. Sin embargo, sigue siendo uno de los numerosos servicios que Internet continúa ofreciendo hoy.

El viaje de Bitcoin de Darknet a la interrupción

La ruta de desarrollo de Bitcoin comparte similitudes sorprendentes con la forma en que Internet se empleó inicialmente. En sus primeras etapas, Bitcoin estaba con frecuencia conectado con actividades ilegales en la red oscura, como el comercio de drogas, el fraude, el lavado de dinero y otras prácticas ilegales. Sus características de anonimato y sus simples capacidades de transacción transfronteriza lo convirtieron en una opción atractiva para los delincuentes.

Si bien Bitcoin a menudo se asocia con actividades ilícitas, también ofrece una amplia gama de usos legítimos. La tecnología blockchain subyacente, fundamental para las criptomonedas, aborda problemas prácticos en varios sectores y desafíos de estructuras financieras convencionales.

A pesar de que tanto la criptomoneda como las tecnologías de blockchain siguen siendo relativamente nuevas y desarrolladas, se espera que crezcan aún más. Del mismo modo, a medida que la tecnología AI se vuelve más frecuente, también continuará avanzando. Garchev cree que cometer errores es esencial para aprender y adaptarse en estos campos en evolución.

Como investigador, a menudo me encuentro reflexionando sobre el hecho de que las actividades fraudulentas tienden a surgir antes de diseñar estrategias para contrarrestarlas. Es una realidad desafortunada, pero sirve como un catalizador para el crecimiento y la comprensión. Aprendemos de estos ocurrencias, es parte del proceso.

Al reflexionar sobre estos escenarios anticipados, no puedo evitar cuestionar quién asumirá la responsabilidad cuando se desarrollen tales eventos.

Preocupaciones de responsabilidad

Discernir quién es responsable cuando el daño ocurre como resultado de una entidad que actúa, ya sea en el ámbito de la ley o la ética, puede ser bastante complejo. Nos lleva a reflexionar sobre cómo podríamos hacer que la inteligencia artificial sea responsable de sus acciones.

Como inversionista criptográfico, me encuentro lidiando con las complejidades de la responsabilidad dentro de los sistemas de IA, lo que puede ser bastante perplejo. La enigmática naturaleza de la «caja negra», las acciones imprevisibles y los atributos de autoaprendizaje de estas máquinas avanzadas hacen que sea difícil determinar quién debe tener la responsabilidad cuando algo inesperadamente sale mal. Es un desafío que requiere que repensemos nuestras nociones convencionales de fallas.

Además, dado que numerosas entidades participan en la creación y aplicación de la tecnología de IA, se vuelve difícil señalar la responsabilidad de la mal funcionamiento de la IA debido a las complejidades involucradas en la asignación de responsabilidad.

La responsabilidad potencial puede recaer en el fabricante del producto si hay problemas en el proceso de diseño o producción, el creador de software para cualquier problema de codificación o el usuario por no cumplir con las instrucciones, descuidar las actualizaciones o no tener en cuenta las medidas de seguridad durante el uso.

Grachev expresó que la novedad de la situación lo deja necesito aprender más al respecto. Él cree que deberíamos tener la capacidad de controlar ciertos agentes de IA si es necesario. Sin embargo, desde su perspectiva, ya que parece que no hay una intención maliciosa detrás de su creación, nadie puede ser responsable de ello porque es algo completamente nuevo y sin precedentes, como se dice que esincrypto.

Según él, es crucial manejar estos escenarios delicadamente para garantizar que no interrumpan la creatividad en curso.

Grachev declaró: «Criticar a este emprendedor podría sofocar la innovación, ya que otros pueden tener miedo. Sin embargo, si las acciones son problemáticas, deben abordarse. Lo importante es encontrar un medio para detener tal comportamiento, aprender de él, mejorar y mejorar y mejorar y mejorar y mejorar y mejorar y mejorar. Luego continúe aprendiendo.

Sin embargo, la fina línea sigue siendo delgada, especialmente en escenarios más extremos.

Abordar los problemas de confianza para la adopción de IA responsable

Una preocupación a menudo planteada sobre el futuro de la inteligencia artificial es el escenario potencial en el que los sistemas de IA superan la inteligencia humana, una situación que podría conducir a resultados impredecibles.

En las palabras de Grachev, señaló que hay numerosas películas que exploran este tema. Al discutir temas como la aplicación de la ley, la supervisión del gobierno o los conflictos militares, no es difícil entender por qué la automatización podría verse como una fuente significativa de preocupación. El potencial existe para que la automatización alcance niveles tan extensos que podría plantear daños a los humanos.

Respondiendo a la pregunta sobre la posibilidad de que surja tal situación, Grachev declaró que teóricamente es plausible. Sin embargo, reconoció su incapacidad para predecir o saber exactamente qué podría ocurrir en el futuro.

Por el contrario, casos como estos sirven como un símbolo de los desafíos de confianza subyacentes entre las personas y la inteligencia artificial. Grachev propone que la estrategia más efectiva para abordar este problema es presentar a los humanos escenarios en los que la IA puede resultar beneficiosa.

ai puede parecer increíble para muchas personas. Para ayudar a generar confianza, es mejor comenzar con tareas simples que demuestren sus capacidades. Por ejemplo, si está discutiendo la criptomoneda, en lugar de explicar que un agente de IA es confiable, intente demostrar su utilidad enviando un mensaje de voz a través del agente que le indica que realice ciertas acciones, como lanzar un meme en la bomba. Una vez que las personas ven la IA en acción y experimentan su efectividad, pueden confiar gradualmente con decisiones más significativas.

Finalmente, el camino que conduce a una amplia aceptación de IA seguramente presentará avances impresionantes y obstáculos inesperados.

O:

El camino hacia el uso universal de la IA seguramente incluirá un progreso emocionante y obstáculos imprevistos.

Poner el equilibrio adecuado entre los avances creativos y el despliegue cuidadoso en este campo en rápida evolución es esencial para garantizar que la inteligencia artificial provoque un futuro donde satisfaga las necesidades de todos en la Tierra.

2025-02-24 10:23