En la era de la IA, «compartir poder de cómputo» es la nueva bicicleta amarilla para los programadores novatos

Fuente: Geek Park

Redacción: Xu Shan

«El costo de los tokens está en caída libre.»

Si esta frase se dijera hace dos años, haría que cada emprendedor de IA se emocionara. De 2023 a 2025, el costo de la inferencia de IA bajó un 99.7%. Para que te hagas una idea: cuando se lanzó GPT-4, el costo por cada millón de tokens era de 37.5 dólares; para 2025, ese número ya había bajado a 0.14 dólares. Siguiendo esta tendencia, el costo de cómputo para los emprendedores, en teoría, no debería ser un problema.

Pero la realidad es exactamente lo contrario.

En el mismo periodo, el gasto de las empresas globales en la nube de IA se disparó de 11 500 millones de dólares a 37 000 millones de dólares, triplicándose por completo. Después de que la IA entró en la era A2A, decenas de agentes interactuando repetidamente provocaron una explosión exponencial en la cantidad de llamadas de tokens. Esto también llevó a que, aunque el precio unitario del token fuera más barato, la cantidad de tokens consumidos por cada tarea se disparara de forma frenética.

Está claro que el cómputo se está convirtiendo en el recurso más extraño de esta era. Cada vez es más barato, pero el dinero que pagas por él solo irá a más.

Para los gigantes, este problema se puede resolver creando sus propios centros de cómputo. Pero para la mayoría de las startups, solo pueden pararse en el mercado público de cómputo, aceptar la fijación de precios de los proveedores de nube, y mirar cómo la factura de cómputo sube mes tras mes, sin tener ninguna capacidad de negociación.

Lo que el fundador de Guangzhou Ji Ke Technology, Fu Zhi, vio era la oportunidad de negocio nacida de este desajuste del mercado.

En su opinión, la solución para reducir el costo del cómputo no es esperar a que el costo baje de manera natural, sino cambiar la forma en que se usa el cómputo: de la misma manera, se puede lograr que el costo del cómputo comience a bajar. Que el cómputo funcione como la electricidad: disponible cuando se necesita, cobro por uso bajo demanda, y reactivar esos recursos de cómputo que están en gran cantidad infrautilizados y desperdiciados.

Recientemente, Guangzhou Ji Ke Technology completó una ronda de financiación Pre-A. La valoración posterior a la inversión es de 350 millones de yuanes, y planea iniciar una ronda de financiación Serie A en breve. En 2025, cuando el sector de cómputo está bajo presión generalizada, esta empresa tecnológica que resuelve el problema de la asignación de recursos mediante métodos de inteligencia artificial logró en silencio ingresos de varios cientos de millones, y la tasa de retención de clientes se acerca a 100%.

Guangzhou Ji Ke Technology está convirtiendo la asignación de cómputo en un negocio real.

Fu Zhi, fundador de Guangzhou Ji Ke Technology. Fuente de la imagen: Guangzhou Ji Ke Technology

01 Cuando las empresas de IA despegan, aparece una nueva solución para la cuenta de costos del cómputo

En la víspera del lanzamiento del nuevo producto, el equipo de Remy casi no durmió, siempre listo para posibles contingencias en cualquier momento.

Pero cuando el sitio web de la empresa entró en los 48 horas con 500k usuarios, para una nueva empresa de IA que acababa de pasar de la fase de pruebas internas a la fase pública, necesitaban ampliar toda la infraestructura decenas de veces en poco tiempo. Aunque ya tenían cierta preparación, antes del lanzamiento Remy probó previamente múltiples plataformas de servicios en la nube, como Ucloud, Alibaba Cloud y Huawei Cloud; pero en el momento en que la avalancha de tráfico realmente cayó sobre ellos, la solución final vino del proveedor de Guangzhou Ji Ke Technology.

En términos simples, lo que hace Guangzhou Ji Ke Technology es poner a trabajar el cómputo ocioso y asignarlo bajo demanda a empresas de IA con necesidades elásticas. Tanto si son máquinas que giran de madrugada en un cibercafé, un 4090 de un usuario particular, o recursos ociosos de un pequeño centro de cómputo, todo puede formar parte de la reserva de cómputo que Guangzhou Ji Ke Technology puede gestionar. Si al cliente no le alcanza, en cualquier momento se vuelve a solicitar y ajustar desde el pool de cómputo; usar y tomar cuando sea necesario.

En esas 48 horas, Guangzhou Ji Ke Technology asignó de urgencia casi 1900 tarjetas GPU para Remy. Cada vez que el usuario inicia una solicitud, se crea un nuevo pedido; cuando el usuario termina el cálculo, el pedido se cierra de inmediato. En ese día, la plataforma procesó más de un millón de pedidos.

«En el momento de mayor pico, a un proveedor de servicios de cómputo “normal” a menudo le cuesta incluso abrir temporalmente 20 tarjetas; en más casos, las empresas necesitan esperar. Pero esperar también significa que se pierde tráfico, algo que ninguna empresa quiere ver.» Fu Zhi comentó que después de esto, la gran mayoría del cómputo que usaba Remy provenía de Guangzhou Ji Ke Technology.

La necesidad de cómputo de Remy en realidad es muy simple: cada vez que explota el tráfico, los clics de los usuarios deben responderse de manera oportuna; la llamada al cómputo debe ser rápida, oportuna y, a la vez, el costo debe ser bajo. Estos son los requisitos más básicos de cómputo para una startup de IA que apenas está empezando.

En cambio, hay otro tipo de clientes de aplicaciones de IA con necesidades de cómputo más minoritarias, pero también más realistas.

Durante el Festival de Primavera del año pasado, una empresa que hacía fotos con cambio de vestuario con IA en un parque turístico se puso en contacto con Guangzhou Ji Ke Technology. No es que no supieran cuándo ocurrirían los picos de tráfico, pero aun así les resultaba difícil calcular bien el costo del cómputo.

Sus equipos de IA se encontraban dentro del parque; en cuanto llegaban las vacaciones, se llenaba de gente y la demanda de cómputo se disparaba. Pero al terminar el periodo festivo, la demanda de cómputo casi se reducía a cero. «El Festival de Primavera es el mayor pico del año; el resto de los meses, no hay mucha gente en el parque.» le dijeron a Fu Zhi.

Ese tipo de oscilación en la demanda de cómputo significa que, si eliges alquilar cómputo por el pico, equivale a estar quemando dinero para mantener tarjetas la mayor parte del tiempo, 90%; si lo alquilas por el promedio, durante el Festival de Primavera la demanda seguramente colapsaría, afectando la experiencia del usuario. «Este tipo de fluctuación de demanda, en las soluciones tradicionales de servicios de cómputo, es relativamente difícil obtener un esquema adecuado. Porque esas diferencias extremas entre picos y valles no tienen una lógica de precios correspondiente en productos estándar.» dijo Fu Zhi.

Pero estos escenarios sí encajan muy bien con el uso de la plataforma de compartición de cómputo de Guangzhou Ji Ke Technology.

Ese mes, los nodos de servicio cambiaron 1963 computadoras personales, y durante todo el Festival de Primavera no hubo ni un solo problema de estabilidad. «En comparación con que el cliente despliegue su cómputo por pico, les ayudamos a ahorrar cerca de 70% de los costos.» añadió Fu Zhi.

Esta demanda con oscilación temporal no solo aparece en algunos escenarios nicho; también es común para muchas nuevas empresas en el sector de IA.

Liblib es una de las plataformas de generación de imágenes con IA con mayor base de usuarios en China. Ellos antes alquilaron muchas tarjetas GPU en las plataformas de proveedores en la nube. Pero si lo investigan con cuidado, descubren que, en promedio, la utilización total de estas GPU es solo 45%.

Esto significa que más de la mitad de las tarjetas se están quemando dinero en vano cada día.

Según explicó Fu Zhi, en realidad, empresas como liblib no son pocas. Casi todas las herramientas de aplicaciones de IA orientadas a usuarios que trabajan en oficinas se enfrentan a este problema. De día, los usuarios usan el sistema de manera concentrada; por la noche, el número de usuarios baja drásticamente. Si el cómputo se configura por pico, por la noche la tasa de ociosidad es alta; pero si se configura por promedio, de día es difícil satisfacer la demanda de todos los usuarios.

El sector de IA parece animado, pero lo que puede frenar la vida y el crecimiento de una empresa puede ser precisamente el costo del cómputo. Muchas empresas tienen expectativas demasiado altas sobre el cómputo; el costo del cómputo arrastra el flujo de caja, y también hay empresas que subestiman el cómputo: cuando el uso llega a su pico, el servicio colapsa y los usuarios se van sin volver.

«El tráfico de las aplicaciones de IA es naturalmente volátil; la lógica de fijación de precios del mercado de cómputo está diseñada para una demanda estable; y la forma de distribuir el costo del cómputo aún se mantiene en métodos relativamente tradicionales.» dijo Fu Zhi. Esta es la razón por la cual, cuando una empresa de IA realmente despega, esa cuenta del costo del cómputo necesita un algoritmo nuevo.

Antes, los modelos tradicionales de servicio de cómputo se basaban principalmente en contratos a largo plazo. Las empresas alquilan por un año y, usen o no usen, deben pagar por adelantado el costo del cómputo. Los costos por el cómputo ocioso los asume principalmente la propia empresa. Y lo que hace Guangzhou Ji Ke Technology, en realidad, es transferir ese costo a otro lugar: a aquellas personas que ya tienen cómputo ocioso pero que no pueden usarlo de manera completa, como usuarios particulares, cibercafés, etc. Este cómputo ya estaba desperdiciándose; al gestionarlo, no se genera un costo nuevo de cómputo, sino que se reanima el cómputo ocioso existente.

«No es que “cuanto más cómputo, mejor”», dijo Fu Zhi, «sino que debe poder moverse, estar disponible y poder llamarse en cualquier momento. Así es mejor.»

02 Este negocio del cómputo elástico pone a prueba la capacidad de gestión de energía

Para Fu Zhi, la oportunidad de hacer este negocio de asignación de cómputo en realidad proviene de una oportunidad fortuita.

En mayo de 2023, durante las vacaciones, justo en la etapa en la que la ola de IA comenzaba a brotar, Fu Zhi publicó un mensaje en un grupo de emprendedores de IA: «Tengo una A100; cuanto más corto sea el alquiler, más barato. Si lo necesitas, ven a buscarme.»

En ese momento, sus expectativas en realidad no eran altas, porque solo tenía una tarjeta. Pero el resultado fue inesperado: finalmente 30 personas le consultaron y todas pagaron con bastante rapidez.

«Doy el servicio a quien paga más rápido.» Al final seleccionó a 5 personas para atender. Una tarjeta, cinco clientes. Esto validó una conclusión que él llevaba mucho tiempo pensando: la gente común empieza a necesitar cómputo.

Pero él también tenía claro por qué este negocio solo se volvió viable en ese momento: no era porque tuvo buena suerte, sino porque antes no existían las condiciones.

Por ejemplo, en 1999 ya había alguien que propuso compartir cómputo: crear una plataforma BOINC para que decenas de miles de personas aportaran cómputo. Pero en esa época se trataba de una plataforma de computación científica de carácter benéfico: cualquiera podía usarla gratis. Más tarde, cuando Bitcoin se puso de moda, también había gente que consideró aprovechar la fiebre del minado para gestionar el cómputo ocioso, pero eso no era legal.

Las ideas siempre han estado, pero el “suelo” nunca había.

Al fin y al cabo, los usuarios comunes con GPU de alto rendimiento son los nacidos en los 90 y los 00. Antes de eso, muy pocas personas tenían en su PC una configuración con 4090. Y que la WSL1.0.0 ejecute entornos virtuales Linux de forma segura en una PC personal también solo se publicó oficialmente en 2022. Y ni hablemos del acceso remoto a dispositivos personales distribuidos por todo el lugar, para que puedan atravesar la red interna (intranet), una tecnología que solo se consideró realmente madura alrededor de 2021.

Con la oferta, la demanda y las condiciones técnicas completas, es cuando este negocio se vuelve posible hoy.

Pero Fu Zhi piensa que la señal de que realmente había llegado el «momento oportuno» no era DeepSeek ni una máquina todo en uno (AIO), sino el escenario de consumo de IA: está penetrando en la vida diaria de la gente común, pasando de ser una herramienta minoritaria a convertirse en entretenimiento cotidiano.

«Una vez que este proceso se acelera, la demanda de cómputo ya no será solo para que algunas grandes empresas la compren; será como la electricidad: necesita ser gestionada, distribuida y reasignada de forma masiva, entre nodos y a gran escala.» dijo Fu Zhi.

Esta también es la razón por la cual Guangzhou Ji Ke Technology está impulsando conversaciones de cooperación con el centro nacional de cómputo. Actualmente, ya participa en la construcción de plataformas provinciales de gestión y asignación de cómputo para Jing-Jin-Ji, el Delta del Yangtsé, Shenzhen y Qinghai. Los sistemas de gestión que se han montado en cada región, a nivel técnico, cuentan con la participación de Guangzhou Ji Ke Technology.

Sin embargo, «la gestión del cómputo» es mucho más difícil de lo que parece.

La asignación de cómputo y la administración del cómputo no son lo mismo. Fu Zhi hace una distinción: lo que hacen las grandes empresas es administrar. Integran un montón de máquinas en el mismo sistema, saber quién las está usando y quién está ocioso, pero les resulta difícil lograr una asignación dinámica que cruce regiones y dispositivos.

Y la asignación de cómputo es otra cosa. Requiere tomar la demanda de pico de este lugar y rellenarla con cómputo ocioso de otros lugares. En ingeniería de computadoras, en realidad no hay una solución lista; al contrario, es un problema antiguo del sector energético: el término «recortar picos y rellenar valles» es en realidad una expresión usada en los sistemas eléctricos.

Fu Zhi cursó la licenciatura en la Universidad de Tsinghua en Ingeniería de Aplicaciones de Energía y Entorno Arquitectónico, y su tutor era un académico (académico) del área de energía. Trasladó los algoritmos de gestión de energía para resolver el mismo problema, pero en su versión de cómputo: esa es la barrera más central de Guangzhou Ji Ke Technology.

Por supuesto, desde el punto de vista de la ingeniería, este sistema de asignación entre regiones también encuentra muchas dificultades. Por ejemplo, una computadora personal que se integra al pool de asignación podría estar «ocupada en cualquier momento»: si el usuario abre un juego, esa máquina tendría que salir, pero los clientes aguas abajo exigen que el servicio no se interrumpa.

La elección de Fu Zhi es con respaldo activo y predicción: preparar nodos redundantes para cada tarea con antelación, y al mismo tiempo usar datos históricos acumulados para predecir patrones de disponibilidad en línea de cada proveedor, ajustando dinámicamente la proporción de respaldo. Cuantos más datos hay, más precisos son los respaldos y más baja es la complejidad de costos. «Antes tenía que reservarte dos máquinas. Pero conforme se usa, ahora solo necesito reservar una.» La capa de transmisión de red tampoco es estable; la respuesta de Guangzhou Ji Ke Technology es conectar simultáneamente tres proveedores de nube líderes. Fu Zhi dijo: «No es posible que fallen los tres a la vez».

Entonces, ¿por qué los proveedores de nube no hacen cómputo elástico?

La explicación de Fu Zhi es que las grandes empresas lo ven, pero el cómputo elástico de las grandes empresas es diferente en su posicionamiento de producto y estrategia de precios; la ventaja de Guangzhou Ji Ke Technology es el precio y la eficiencia de la asignación.

La contradicción central del cómputo elástico es: necesitas reservar con anticipación cómputo que esté «siempre disponible para llamar», pero cuando ese cómputo no se usa, es simplemente un costo de ociosidad. La expansión elástica de los proveedores de cómputo típicamente equivale a unas 5 veces el precio normal, o bien se hace que el cliente firme un contrato anual largo, asumiendo el cliente el riesgo de la ociosidad del cómputo.

Guangzhou Ji Ke Technology puede ofrecer un verdadero grado de elasticidad porque los recursos que usa ya eran ociosos: esos recursos no se adquirieron con anticipación para presionar costos. Por lo tanto, como ya estaban ociosos, Guangzhou Ji Ke Technology puede ofrecer precios con mucha más ventaja.

Según el análisis de Fu Zhi, en el mercado completo, 80% de la demanda de cómputo va a contratos empaquetados a largo plazo de las grandes empresas, y el restante 20% es la parte con necesidades elásticas. Fu Zhi no planea competir por el 80%; se enfoca en el mercado de ese 20%. Además, a medida que las aplicaciones de IA continúan creciendo, ese 20% también se hará cada vez más grande. «Allí, cuanto más largo alquilas, más barato; en mi caso, cuanto más corto alquilas, más barato.» añadió. Hoy, la plataforma de cómputo compartido de Guangzhou Ji Ke Technology «suanli.cn» permite que los consumidores comunes alquilen cómputo relacionado por milisegundo.

Foto de grupo del equipo de Guangzhou Ji Ke Technology. Fuente de la imagen: Guangzhou Ji Ke Technology

Este modelo de negocio compartido, en realidad, ya ha sido validado en otros sectores.

Fu Zhi compara la esencia de este negocio con Airbnb: cuando una ciudad celebra una gran feria, los hoteles alrededor se llenan por completo; Airbnb conecta a los residentes que tienen habitaciones ociosas con los participantes que no tienen dónde alojarse. La historia en versión de cómputo es el mismo camino: cuando las aplicaciones de IA lanzan versiones o cuando explota el tráfico, necesitan una gran cantidad de cómputo; en periodos normales, la demanda es muy inferior a esa escala. Por otro lado, los usuarios particulares, los cibercafés y los pequeños centros de cómputo tienen gran cantidad de cómputo ocioso durante la noche y los días laborables. Conectar ambos lados es precisamente lo que hace Guangzhou Ji Ke Technology.

La diferencia es que lo que se comparte no son habitaciones, sino cómputo.

03 Asignación y gestión de energía del cómputo: la «infraestructura definida por software» en la era de la IA

En el extranjero, también hay gente que ha recorrido este camino. Por ejemplo, RunPod también ofrece servicios de inferencia elástica a través de cómputo disperso, y en 2024 obtuvo una ronda semilla de 20 millones de dólares liderada conjuntamente por Intel Capital y Dell Technologies Capital. Entre sus clientes están Cursor, OpenAI y Perplexity.

Pero según Fu Zhi, hacer esto en Estados Unidos y hacerlo en China son completamente dos cosas.

AWS desde su nacimiento ha estado ofreciendo cómputo elástico: desde el principio prometió el uso bajo demanda. A través de servicios elásticos de mayor precio, ha servido a un mercado ya maduro. En cambio, los proveedores de computación en la nube en China tienden más a ofrecer el modelo de largo plazo, y las políticas de incentivos correspondientes también están más inclinadas hacia este modelo. No se presta tanta atención a los servicios elásticos, y además la disposición de los usuarios a pagar por cómputo elástico es mucho menor que en Estados Unidos. Por lo tanto, si se copia la lógica de RunPod en China, la estrategia de precios no funciona.

Pero Fu Zhi cree que la asignación de cómputo no es un negocio que se limite a “alquilar cómputo”. «Compartir cómputo podría ser solo un trampolín para entrar.» dijo esto sin dudar. En su análisis, esta ventana de oportunidad para el negocio dura probablemente dos o tres años: mientras el desfase entre oferta y demanda de cómputo siga existiendo, esa brecha seguirá ahí; pero no existirá para siempre.

Esa lucidez no es común entre emprendedores. Pero precisamente por eso, desde hace mucho tiempo comenzó a pensar en algo más fundamental: ¿de dónde saldrá la próxima aplicación de IA que realmente explote? Este juicio determinará directamente hacia dónde se dirige la demanda de cómputo. Sobre esto, Fu Zhi tiene dos juicios hacia el futuro.

El primero: según su análisis, los súper “aplicaciones” en China no surgirán de las herramientas de productividad en PC. La dirección con verdadera oportunidad está en el entretenimiento social del móvil, la integración de la cadena de suministro con hardware transfronterizo y las aplicaciones de IA que puedan integrarse en escenarios de vida reales.

Internet en China nunca ha pasado por una era profundamente arraigada de herramientas de productividad en PC. Los usuarios saltaron directamente de la era de los teléfonos funcionales a la era de Internet móvil. Esas herramientas de IA que emergieron en Estados Unidos—documentos de IA, diapositivas de IA, asistentes de código de IA—se basan en un grupo de usuarios en PC que trabaja durante millones y que están dispuestos a pagar por herramientas SaaS; pero en China eso no es así. «¿Hay más de 100 millones de personas en toda China que necesitan escribir Word? Yo creo que quizá no». Además, lo más problemático es que incluso si existiera esa demanda, las grandes empresas lo convertirían muy pronto en complementos gratuitos.

En cambio, él vio un crecimiento alto en los escenarios de entretenimiento social. Ha conversado con muchos profesionales que hacen cortometrajes y cine, y les preguntó por qué adoptan con tanta iniciativa la IA. La respuesta que recibió le dio una nueva idea: «Ya no tengo nada que perder; nadie va al cine ni mira series, ya casi estamos muertos.» Estas personas en el mercado chino son las que más activamente adoptan la IA, no porque entiendan más de tecnología, sino porque no hay a dónde retroceder. «Ahora, ya casi nadie ve televisión ni películas.»

Y sobre el desarrollo de hardware de IA, también tiene algunas ideas diferentes.

En los últimos años, el enfoque principal del hardware de IA ha sido «poner un cuadro de diálogo a todo»: o sea, equipar cualquier dispositivo con una ventana de chat. Fu Zhi piensa que esa dirección no es correcta. «El consumidor no necesita un refrigerador que sepa escribir poesía.»

El hardware de IA que realmente tiene vida es el que entra en escenarios de alta frecuencia que el usuario ya tiene, y la IA trabaja en segundo plano de forma silenciosa, en lugar de arrastrar al usuario a sentarse específicamente para chatear con ella.

Como ejemplo: una cámara para mascotas debería poder reconocer automáticamente si un gato está enfermo; una cámara en un parque turístico debería completar automáticamente el cambio de vestuario y las fotos. El usuario no necesita cambiar nada; la IA solo hace su trabajo en silencio. «Si este tipo de hardware puede usar modelos de código abierto para desplegarse, en los momentos en que estalla el tráfico también se convertiría en cliente de cómputo elástico.» Fu Zhi también considera que este sería uno de los puntos de crecimiento futuros de Guangzhou Ji Ke Technology.

Su segundo juicio está más escondido: ya se había formado a finales de 2024, pero esperó hasta este año para tener la oportunidad de validarlo.

Él cree que, hacer que las personas hablen directamente con la IA es en sí mismo una especie de desperdicio de eficiencia. La velocidad de entrada y salida de información de los humanos tiene un límite: solo se puede plantear una pregunta a la vez y hay que esperar a que aparezca la respuesta para hacer la siguiente. Pero la IA puede manejar simultáneamente decenas de miles de hilos y completar la transmisión de información entre máquinas en cuestión de milisegundos. «Conducir la IA con humanos es usar el eslabón más lento, y se arrastra la velocidad de todo el sistema.»

Lo que realmente debería ocurrir es la colaboración directa entre IA y IA: A2A. Un encargo se envía y se activa una serie de operaciones en cadena de varias IA; las personas solo necesitan definir el objetivo, sin participar en cada paso intermedio. Por eso se valora OpenClaw hoy. Y por eso Fu Zhi considera que OpenClaw es verdaderamente importante: no es solo por el producto en sí, sino porque demuestra algo: entre IA y IA se puede formar una comunidad por sí solas; con A2A hay quien lo compra, y ese camino funciona.

Una vez que el modelo A2A se convierta en el modo principal, el consumo de cómputo será varias veces e incluso decenas de veces el de hoy. En la GTC 2026, Huang Renxun dijo que, debido al estallido de la IA agentica y de las capacidades de inferencia, la cantidad de cómputo requerida hoy es al menos 100 veces mayor que la que se esperaba hace un año. Y esto es solo el comienzo. Entonces, el cómputo realmente se comportará como la electricidad: ya no se tratará de cuántas tarjetas necesitas almacenar, sino de si toda la «red eléctrica de cómputo» puede distribuirse bajo demanda. La gestión de recursos de cómputo habrá llegado al terreno de la asignación.

Cuando A2A llegue de verdad, el cómputo se convertirá en infraestructura detrás de cada persona, cada tarea y cada nodo de IA, como lo es la electricidad. En ese momento, quien pueda ajustar con precisión el cómputo a través de regiones, dispositivos y franjas horarias, será quien domine verdaderamente la capacidad operativa de esa red.

Lo que está haciendo hoy Guangzhou Ji Ke Technology, según Fu Zhi, es prepararse para ese momento: usando esta ventana de dos o tres años, construir la capacidad de asignación, la red de nodos y las relaciones con los clientes. Cuando la demanda de A2A realmente estalle, este sistema será el verdadero foso de protección de Guangzhou Ji Ke Technology.

Él recientemente envió una frase dentro de la empresa; cuando la entrevista estaba a punto de terminar, la repitió de nuevo:

«Aun así, todo esto apenas está comenzando.»

En el contexto del cómputo elástico, esta frase probablemente sea solo una apreciación optimista del mercado por parte de un emprendedor. Pero en el contexto de A2A, «comenzando» quizá no signifique el inicio de este negocio, sino que el planteamiento de que el cómputo se convierte en infraestructura está entrando en su inicio verdadero.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado