Cựu nhà nghiên cứu OpenAI công bố nguyên mẫu Flipbook: bỏ qua HTML, sử dụng mô hình video AI để trực tiếp tạo ra từng pixel

Tin tức ME News, ngày 23 tháng 4 (UTC+8), theo theo dõi của Động Chấn Beating, cựu nghiên cứu viên của OpenAI Zain Shah và nhóm của ông đã phát hành Flipbook, một nguyên mẫu thử nghiệm sử dụng mô hình AI để trực tiếp tạo ra pixel màn hình, thay thế các công nghệ web truyền thống như HTML, CSS. Mỗi “trang” mà người dùng nhìn thấy đều là một hình ảnh do AI tạo ra, nhấn vào bất kỳ khu vực nào trong hình ảnh để tạo ra hình ảnh mới tiếp tục đi sâu, toàn bộ giao diện không có mã HTML, không có liên kết cố định, không có nút bấm định sẵn, thậm chí chữ cũng là pixel trong hình. Chế độ video dựa trên mô hình tạo video DiT (Diffusion Transformer) mã nguồn mở của công ty Lightricks của Israel, được tối ưu hóa để có thể truyền phát trực tiếp đến màn hình người dùng qua WebSocket ở độ phân giải 1080p 24fps, backend nhận từ Modal Labs sử dụng GPU không máy chủ. Shah cho biết hiện tại chức năng của Flipbook còn hạn chế, nhóm tập trung vào giải thích hình ảnh, nhưng đã thể hiện hướng đi lớn hơn: khi mô hình trở nên chính xác hơn và có trạng thái hơn, có thể mở rộng đến giao diện người dùng có cấu trúc, bao gồm cả các kịch bản lập trình. Shah từng làm việc tại OpenAI về nghiên cứu AI và robot, sau đó là chuyên gia công nghệ sáng tạo của Samsung, cũng là cựu sinh viên YC S13. Các thành viên trong nhóm còn có kỹ sư của Humane và Slack là Eddie Jiao, kỹ sư của Apple là Drew O’Carr. (Nguồn: BlockBeats)

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Ghim