Chủ đề thịnh hành
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Tôi đã viết một cái gì đó về điều này nhưng thấy @anton_d_leicht đã làm trước tôi (và làm tốt hơn nhiều!).
Vì vậy, tôi chỉ thêm những suy nghĩ chưa hoàn chỉnh của mình, một số trùng lặp với của anh ấy:
-----
Tôi đã viết một lượng khá về sự xuất hiện của AI tiên tiến hơn. Nhưng trong khi tôi vẫn nghĩ rằng có khả năng chúng ta sẽ có một cái gì đó giống như "AGI" trong hai thập kỷ tới, tôi cũng nghĩ rằng có khả năng chúng ta sẽ có một cái gì đó giống như "mùa đông AI" ở giữa. Vậy tại sao không viết về nó nữa?
Tôi nghĩ điều này quan trọng, vì những lý do sau:
– Một mùa đông AI có thể KHÔNG rất thông tin về việc liệu, trong dài hạn (thập kỷ thay vì năm), chúng ta có đang hướng tới một cái gì đó giống như AGI hay không.
– Hầu hết mọi người SẼ cảm nhận một mùa đông AI là rất thông tin về tính khả thi của AGI.
– Kết quả quan trọng là AGI, không phải liệu có hay không có một mùa đông AI trước đó.
Những nhận thức của hầu hết mọi người (và các nhà hoạch định chính sách) là quan trọng. Một mùa đông AI (và sự bùng nổ đầu tư dẫn đến) có thể tạo ra một khoảng thời gian mà bất kỳ cuộc nói chuyện nào về rủi ro và lợi ích của AI tiên tiến trong tương lai trở nên hoàn toàn nhạy cảm. Nếu xu hướng cốt lõi hướng tới trí thông minh tổng quát tiếp tục trong khi chúng ta không đạt được tiến bộ trong chính sách, chúng ta sẽ có ít thời gian hơn để định hình tích cực sự phát triển của AI [
Hãy tưởng tượng kịch bản bi quan này: Năm 2028. Những điều mà trước đây hoạt động không còn hoạt động nữa. Việc mở rộng đào tạo trước đã bắt đầu cho kết quả giảm dần mạnh mẽ vào năm 2025. Việc mở rộng suy diễn cũng theo đó. Dữ liệu tổng hợp đã hoạt động trong một thời gian, nhưng chỉ làm cho các mô hình hội tụ gần một trần mới. Một vài đổi mới khác đã xảy ra, làm cho LLM thông minh và hữu ích hơn. Nhưng chúng vẫn chỉ là LLM, khá giòn và không thực sự tốt trong việc tự động hóa công việc, ngay cả khi ổn trong việc tự động hóa các nhiệm vụ viết. Các tác nhân đang tiến triển chậm hơn mong đợi. Hóa ra việc học tự giám sát từ văn bản là một tín hiệu đào tạo đặc biệt dễ dàng để tạo ra. Việc học tự giám sát trong việc sử dụng máy tính và RL thì khó hơn nhiều để thiết lập đúng cách. Mọi người đang tạo ra những mô phỏng khổng lồ và đào tạo các tác nhân trong đó, nhưng chúng tổng quát tương đối kém. Mọi người chỉ ra những thứ như AI 2027 và thấy một khoảng cách lớn giữa "kỳ vọng" và thực tế, đến mức họ nói rằng đó chỉ là sự cường điệu. Các phòng thí nghiệm AI không còn có thể biện minh cho những lần đào tạo lớn; việc tính toán chỉ đang lãng phí cho những cải tiến biên ngày càng nhỏ hơn. Có thể chúng ta đã có một vài đột phá trong độ dài ngữ cảnh và học tập liên tục, nhưng chúng không đủ. Đầu tư vào AI giảm mạnh. Vì vậy, R&D cũng giảm. Nói về tương lai của AI trở nên nhạy cảm. Bất kỳ suy đoán nào về khả năng tương lai đều bị dìm bởi những "người thực tế" chỉ ra những năm gần đây của sự tiến bộ đáng thất vọng.
Trong kịch bản này, vào năm 2028, điều này sẽ trông như là kết thúc câu chuyện đối với nhiều người (hầu hết?). AI thì tốt, nhưng nó chỉ bao giờ có thể tốt như vậy. Và đó là tất cả. Điều này có nghĩa là không có AGI, không có tác động chuyển đổi, không có thời kỳ vàng của sự tiến bộ, và tất nhiên, không có rủi ro nào tồi tệ hơn deepfake.
Nhưng mùa đông AI sẽ kéo dài bao lâu?
Có thể nó kéo dài mãi mãi, hoặc ít nhất là mất vài thập kỷ. Chống lại những xác suất từ các xu hướng đầu thế kỷ 20, chúng ta có thể đạt đến một giới hạn cơ bản. Các chuyên gia cuối cùng thông báo cho chúng ta rằng phép tương tự não-GPU là quá thô — điều mà chúng ta đã biết — nhưng hóa ra những khác biệt đó quan trọng cho việc chuyển từ dự đoán văn bản sang tác nhân tổng quát. Hoặc chúng ta cần các quá trình lượng tử trong não để tạo ra một điểm chú ý có ý thức, điều mà — hóa ra — là cần thiết để đạt được chức năng bậc cao nhất. Hoặc không phải là các quá trình lượng tử mà là "phần cứng" liên kết cao mà não cung cấp, có thể được mô phỏng trong việc xử lý song song chủ yếu mà các GPU thực hiện. Nhưng một lần nữa, hóa ra, những mô phỏng này không đủ và chúng ta thực sự cần các chip neuromorphic để tạo ra các tác nhân có khả năng, và những chip đó sẽ không có sẵn trong năm thập kỷ tới.
Bạn không cần phải nghĩ rằng bất kỳ câu chuyện thất bại nào trong số này là hợp lý để nghĩ rằng chúng ta có thể đang thiếu một thành phần nào đó trong công thức AGI, và thành phần đó có thể khó hoặc không thể có được trong thế kỷ này, giống như nó đã từng trong mọi thế kỷ trước đó.
Mùa đông AI cũng có thể ngắn, mặc dù. Chúng ta đã quen với việc tăng khả năng theo dạng bước, nơi chúng ta nhận được ít cập nhật ấn tượng giữa các lần đào tạo lớn. Nếu một vài lần đào tạo không diễn ra như mong đợi, điều này chỉ có nghĩa là chúng ta sẽ bị mắc kẹt trong một cao nguyên dài hơn nhiều, trong khi các thành phần cho bước thay đổi tiếp theo được lắp ráp và tích lũy đến ngưỡng cần thiết. Tuy nhiên, một khoảng thời gian tiến bộ không như mong đợi kéo dài hơn có thể kích hoạt nhiều quy trình tương tự của một mùa đông dài hơn.
"Các quy luật mở rộng" là một quan sát thực nghiệm, không phải là một sự thật vốn có về thế giới. Các xu hướng có thể hoàn toàn kết thúc hoặc chậm lại đáng kể. Bởi vì hầu hết mọi người — và đặc biệt là hầu hết "người ngoài" không theo dõi tiến bộ AI — có xu hướng đánh giá thấp tầm quan trọng của những xu hướng này, những người làm việc trên AI đôi khi bị phân cực tiêu cực và trở nên quá tuyệt đối (ở đây một cách châm biếm) [ về sức mạnh dự đoán của các quy luật mở rộng. Vâng, chúng ta có thể đang ở trong một tình huống khác của Luật Moore [ với khả năng AI. Nhưng nhiều xu hướng dường như ổn định dừng lại theo thời gian — chúng ta nhớ Luật Moore chính xác vì nó là ngoại lệ.
Cuối cùng, có thể sẽ không có [ một mùa đông AI nào cả. Chúng ta có thể có một ranh giới AI cải thiện liên tục mặc dù có những "nỗi sợ" thường xuyên mỗi khi AI dường như đang va vào một bức tường ngay trước khi phá vỡ nó. Hoặc chúng ta có thể có một ranh giới cải thiện khi mà phần lớn "bong bóng" cho các công ty wrapper và các startup AI nhỏ hơn vỡ.
Điều quan trọng là: có một xu hướng cốt lõi hướng tới trí thông minh tổng quát ngày càng tăng. Và chính xu hướng đó mới là quan trọng. Không phải liệu LLM có đưa chúng ta đến đó hay không, hoặc liệu chúng ta sẽ đến đó với hay không có một mùa đông AI tạm thời ở giữa.
Não của chúng ta là bằng chứng cho thấy những người lý luận tổng quát là có thể, và các hệ thống AI ngày nay là bằng chứng cho thấy lý luận của chúng ta có thể được xấp xỉ hữu ích (dù có phải là "lý luận thực sự" hay không) trong các lĩnh vực phức tạp cao. Có thể một số dự đoán bi quan nhất mà tôi đã phác thảo ở trên là đúng, như việc đạt đến giới hạn cơ bản của trí thông minh máy móc. Nhưng áp lực từ việc tính toán tăng theo cấp số nhân, dữ liệu đào tạo, và hàng ngàn thiên tài làm việc trên các thuật toán mới dường như cuối cùng dẫn đến trí thông minh tiên tiến. Và nếu chúng ta muốn làm cho điều đó đúng, chúng ta tốt hơn nên tập trung vào điều đó, thay vì những kết quả chỉ tương quan với nó.
Thật hợp lý khi đặt nhiều nỗ lực và suy nghĩ vào những kết quả mà chúng ta thực sự có AI chuyển đổi nhanh chóng. Nhưng đừng chọn những ngọn đồi không liên quan để chết trên [
Nói về điều đó, điều gì sẽ xảy ra nếu bong bóng vỡ? Liệu Anthropic có thất bại, cùng với các phòng thí nghiệm AI khác không có nguồn thu đa dạng hơn như Google DeepMind hoặc Meta? Nhân viên XAI sẽ đi đâu nếu có một cuộc di cư lớn? Liệu ít nhất một số phòng thí nghiệm tiên tiến có thể tiếp tục thúc đẩy ranh giới, ngay cả khi nhiều startup nhỏ hơn và các khoản đầu tư bị phá sản? Chúng ta nên cố gắng tìm ra điều đó, cũng như chúng ta cố gắng tìm ra những gì cần làm giả sử các xu hướng tiếp tục. Nếu bạn có ý tưởng, DM của tôi luôn mở.

8,67K
Hàng đầu
Thứ hạng
Yêu thích