Helpex - Trao đổi & giúp đỡ Đăng nhập

Con đường của AI đến dòng chính

Khi tôi đăng ký vào Khoa học máy tính vào năm 1995, Khoa học dữ liệu chưa tồn tại, nhưng rất nhiều thuật toán chúng tôi vẫn đang sử dụng đã làm. Và điều này không chỉ vì sự trở lại của các mạng lưới thần kinh, mà còn bởi vì có lẽ không có nhiều thay đổi về cơ bản kể từ đó. Ít nhất nó cảm thấy với tôi theo cách này. Thật buồn cười khi xem xét rằng bắt đầu từ năm nay, AI dường như cuối cùng đã đi theo xu hướng.

1995 nghe có vẻ rất lâu trước đây, trước khi chúng ta có điện toán đám mây, điện thoại thông minh hoặc chatbot. Nhưng như tôi đã học được trong những năm qua, nó chỉ cảm thấy như một thời gian dài trước đây nếu bạn không ở đó một mình. Có một cái gì đó về sự tiếp nối của bản thân mà dán mọi thứ lại với nhau và mặc dù nhiều thứ đã thay đổi, thế giới không cảm thấy khác biệt cơ bản so với ngày nay.

Ngay cả Khoa học Máy tính cũng không còn là xu hướng như ngày nay, mà đến sau, với bong bóng dot com đầu tiên vào khoảng năm 2000. Một số người thậm chí còn đặt câu hỏi về sự lựa chọn của tôi để nghiên cứu khoa học máy tính, bởi vì rõ ràng máy tính lập trình được cho là như vậy dễ dàng không cần chuyên gia nữa.

Thật ra, trí tuệ nhân tạo là một trong những lý do chính để tôi học ngành khoa học máy tính. Ý tưởng sử dụng nó như một cách tiếp cận mang tính xây dựng để hiểu tâm trí con người dường như hấp dẫn đối với tôi. Tôi đã trải qua hai năm đào tạo đầu tiên, đảm bảo rằng tôi đã học đủ môn toán cho bất cứ điều gì sẽ ở phía trước, và cuối cùng đã đến với bài giảng AI đầu tiên của tôi được tổ chức bởi Joachim Buhmann, hồi đó là giáo sư tại Đại học Bon (nơi Sebastian Thrun đang ở sắp rời Mỹ).

Tôi sẽ phải tìm nơi mà trong bài giảng của anh ấy tôi đã tham gia nhưng anh ấy có hai bài giảng về thị giác máy tính, một về nhận dạng mẫu (chủ yếu từ các ấn bản cũ của cuốn sách Duda & Hart), và một về lý thuyết thông tin (theo sát cuốn sách bởi Cover & Thomas). Các tài liệu đã đủ thú vị, nhưng cũng hơi thất vọng. Như tôi đã biết, mọi người đã ngừng làm việc với AI tượng trưng và thay vào đó bị mắc kẹt với các phương pháp thống kê hơn để học, trong đó việc học về cơ bản được giảm xuống thành vấn đề chọn đúng chức năng dựa trên số lượng quan sát hữu hạn.

Bài giảng về thị giác máy tính thậm chí còn ít hơn về việc học và dựa nhiều hơn vào mô hình vật lý rõ ràng để lấy ra các công cụ ước tính đúng, ví dụ, để tái tạo chuyển động từ video. Cách tiếp cận trở lại sau đó là động lực sinh học và thể chất nhiều hơn so với ngày nay. Mạng lưới thần kinh tồn tại, nhưng mọi người đều khá rõ ràng rằng họ chỉ là một loại xấp xỉ hàm khác.

Mọi người ngoại trừ Rolf Eckmiller, một giáo sư khác nơi tôi làm việc khi còn là sinh viên. Eckmiller đã xây dựng toàn bộ phòng thí nghiệm của mình xung quanh tiền đề rằng tính toán nơ-ron thần thái, bằng cách nào đó vốn đã tốt hơn so với tính toán thông thường. Điều này đã trở lại vào thời mà NIPS có đầy đủ các nghiên cứu về sinh lý học và cơ chế hoạt động của các nơ-ron thần kinh, và có những người tin rằng có một điều gì đó khác biệt về cơ bản xảy ra trong não của chúng ta, có thể ở mức độ lượng tử, làm phát sinh con người tâm trí, và sự khác biệt này là một công cụ chặn để có những cỗ máy thực sự thông minh.

Trong khi Eckmiller thực sự giỏi trong việc bán tầm nhìn của mình, hầu hết các nhân viên của anh ta rất may mắn ở dưới lòng đất. Có thể đó là một điều rất Đức, nhưng mọi người đều thực sự quan tâm đến những gì các mô hình tính toán này có thể hoặc không thể làm được, và điều đó đã cản trở tôi trong suốt quá trình học.

Tôi tốt nghiệp vào tháng 10 năm 2000 với một luận án thạc sĩ khá xa, cố gắng tạo mối liên hệ giữa việc học và các vấn đề tối ưu hóa khó khăn, sau đó bắt đầu luận án tiến sĩ của tôi và bị mắc kẹt trong lĩnh vực nghiên cứu này cho đến năm 2015.

Mặc dù luôn có những nỗ lực để chứng minh sự phù hợp của ngành, đó là một nỗ lực học tập khá lâu trong thời gian dài và cộng đồng đã khá khép kín. Có những câu chuyện thành công riêng lẻ, ví dụ xung quanh việc nhận dạng nhân vật viết tay, nhưng nhiều công ty xung quanh việc học máy đã thất bại. Một trong những công ty mà tôi nhớ được gọi là Biowulf Technologies và một NIPS họ đã đi khắp nơi để tuyển dụng mọi người với một video hứa hẹn nó sẽ là một mathtopia trực tiếp tiếp theo. Về bản chất, đây là câu chuyện về DeepMind, tuyển dụng một nhóm các nhà nghiên cứu xuất sắc và sau đó hy vọng nó sẽ cất cánh.

Cả cộng đồng cũng xoay quanh một thời trang tiếp theo. Một điều kỳ lạ về học máy nói chung là chỉ tồn tại một số vấn đề cơ bản khác nhau như phân loại, hồi quy, phân cụm, v.v., nhưng toàn bộ sở thú về các phương pháp tiếp cận. Nó không giống như trong vật lý (tôi giả sử) hoặc toán học trong đó một số vấn đề khó giải quyết chung chưa được giải quyết tồn tại mà giải pháp của nó sẽ thúc đẩy trạng thái của nghệ thuật. Điều này có nghĩa là tiến độ thường được thực hiện sau đó, bằng cách thay thế các phương pháp hiện tại bằng một phương pháp mới, vẫn giải quyết cùng một vấn đề theo một cách khác. Ví dụ, đầu tiên có mạng lưới thần kinh. Sau đó, các máy vectơ hỗ trợ xuất hiện, tuyên bố là tốt hơn vì vấn đề tối ưu hóa liên quan là lồi. Sau đó, đã có sự thúc đẩy, các khu rừng ngẫu nhiên, và cứ thế, cho đến khi mạng lưới thần kinh trở lại.

Dữ liệu lớn và khoa học dữ liệu

Sau đó, đến Big Data và Data Science. Vẫn còn ở học viện vào thời điểm đó, tôi luôn cảm thấy như thể điều này chắc chắn đến từ bên ngoài, có thể là từ các công ty như Google, những người phải thực sự xử lý lượng dữ liệu khổng lồ. Học tập quy mô lớn luôn tồn tại, ví dụ như dữ liệu gen trong tin sinh học, nhưng người ta thường cố gắng giải quyết các vấn đề bằng cách tìm các thuật toán và xấp xỉ hiệu quả hơn, chứ không phải bằng cách sử dụng song song lực lượng vũ phu.

Các công ty như Google cuối cùng đã chứng minh rằng bạn có thể làm một cái gì đó với lượng dữ liệu khổng lồ và cuối cùng điều đó đã thay đổi nhận thức chủ đạo. Các công nghệ như Hadoop và NoQuery cũng có vẻ rất tuyệt vời, khéo léo tiếp thị bản thân như những cách tiếp cận quá mới, họ sẽ không phải chịu những hạn chế về công nghệ của các hệ thống hiện có.

Nhưng nơi này đã rời khỏi các nhà nghiên cứu máy học? Ấn tượng của tôi luôn là họ rất vui vì cuối cùng họ cũng được công nhận, nhưng họ cũng không hài lòng về cách điều này xảy ra. Để hiểu điều này, người ta phải nhận thức được rằng hầu hết các nhà nghiên cứu ML không phải là nhà khoa học máy tính hoặc rất giỏi hoặc quan tâm đến tiền mã hóa. Nhiều người đến từ vật lý, toán học hoặc các ngành khoa học khác, trong đó việc đào tạo toán học nghiêm ngặt của họ là một sự phù hợp tuyệt vời cho thuật toán và mô hình hóa phương pháp tiếp cận nặng nề tập trung vào học máy.

Hadoop, mặt khác, cực kỳ kỹ thuật. Được viết bằng Java, một ngôn ngữ được coi là quá mức doanh nghiệp-y vào thời điểm đó, nó cảm thấy lúng túng và vụng về so với sự trôi chảy và tương tác của Matlab đầu tiên và sau đó là Python. Ngay cả những người đã làm mã thường làm như vậy trong C ++ và đối với họ, Java cảm thấy chậm và nặng nề, đặc biệt là đối với các phép tính và mô phỏng số.

Tuy nhiên, không có cách nào khác, vì vậy họ đã đổi thương hiệu cho mọi thứ họ đã làm như Dữ liệu lớn hoặc bắt đầu nhấn mạnh, Dữ liệu lớn chỉ cung cấp cơ sở hạ tầng cho các tính toán quy mô lớn, nhưng bạn cần một người biết rằng anh ta đang làm gì làm cho ý nghĩa của dữ liệu.

Mà có lẽ cũng không hoàn toàn sai. Theo một cách nào đó, tôi nghĩ rằng sự phân chia này vẫn còn đó. Python chắc chắn là một ngôn ngữ được lựa chọn để thực hiện phân tích dữ liệu và các công nghệ như Spark cố gắng khai thác điều đó bằng cách cung cấp các ràng buộc Python, cho dù nó có ý nghĩa từ quan điểm hiệu suất hay không.

Sự trở lại của Deep Learning

Ngay cả trước DeepDream , các mạng lưới thần kinh đã bắt đầu quay trở lại. Một số người như Yann LeCun luôn bị mắc kẹt với cách tiếp cận này, nhưng có thể mười năm trước, ở đó có một vài công trình cho thấy cách sử dụng tiền giả lớp và các thủ thuật khác để huấn luyện các mạng sâu Deep, đó là mạng lớn hơn so với trước đây.

Vấn đề là, để đào tạo mạng lưới thần kinh, bạn đánh giá nó trên các ví dụ đào tạo của bạn và sau đó điều chỉnh tất cả các trọng số để làm cho lỗi nhỏ hơn một chút. Nếu một người viết độ dốc trên tất cả các trọng số xuống, thì đương nhiên một người bắt đầu ở lớp cuối cùng và sau đó lan truyền lỗi trở lại. Bằng cách nào đó, sự hiểu biết là thông tin về lỗi ngày càng nhỏ dần từ lớp này sang lớp khác và điều đó khiến cho việc đào tạo các mạng có nhiều lớp trở nên khó khăn.

Tôi không chắc điều đó vẫn đúng, theo như tôi biết, ngày nay nhiều người chỉ đang sử dụng backprop. Những gì chắc chắn đã thay đổi là lượng dữ liệu có sẵn, cũng như sự sẵn có của các công cụ và sức mạnh tính toán thô.

Vì vậy, đầu tiên có một vài bài báo thu hút sự quan tâm đến các mạng lưới thần kinh, sau đó mọi người bắt đầu sử dụng chúng một lần nữa và liên tiếp đạt được kết quả tuyệt vời cho một số lĩnh vực ứng dụng. Đầu tiên trong tầm nhìn máy tính, sau đó cũng để xử lý lời nói, v.v.

Tôi nghĩ rằng sự hấp dẫn ở đây chắc chắn là bạn có thể có một cách tiếp cận cho tất cả. Tại sao rắc rối của việc hiểu tất cả các cách tiếp cận khác nhau, xuất phát từ rất nhiều nền tảng khác nhau, khi bạn có thể hiểu chỉ một phương pháp và bạn tốt để đi. Ngoài ra, mạng lưới thần kinh có cấu trúc mô đun đẹp, bạn có thể chọn và kết hợp các loại lớp và kiến ​​trúc khác nhau để điều chỉnh chúng cho tất cả các loại vấn đề.

Sau đó, Google đã xuất bản bài báo về giấc mơ sâu thẳm khéo léo nơi họ để một mạng học được tạo ra một số dữ liệu và con người chúng ta sẵn sàng đọc cấu trúc và trí thông minh thuộc tính nhanh chóng nhận ra điều này.

Cá nhân tôi nghĩ rằng họ đã rất ngạc nhiên về việc virus này đã diễn ra như thế nào, nhưng sau đó quyết định thời gian cuối cùng là đúng để đi sâu vào AI. Vì vậy, bây giờ Google là một công ty đầu tiên của AI AI và AI sẽ cứu thế giới, vâng.

Vấn đề cơ bản còn lại

Nhiều học giả mà tôi đã nói chuyện không hài lòng về sự thống trị của học sâu ngay bây giờ, bởi vì đó là một cách tiếp cận hoạt động tốt, thậm chí có thể quá tốt, nhưng không đưa chúng ta đến gần hơn để thực sự hiểu tâm trí con người hoạt động như thế nào.

Tôi cũng nghĩ rằng vấn đề cơ bản vẫn chưa được giải quyết. Làm thế nào để chúng ta hiểu thế giới? Làm thế nào để chúng ta tạo ra các khái niệm mới? Học sâu vẫn là một sự bắt chước ở cấp độ hành vi và trong khi điều đó có thể là đủ đối với một số người, nó không dành cho tôi.

Ngoài ra, tôi nghĩ thật nguy hiểm khi gán quá nhiều trí thông minh cho các hệ thống này. Về số lượng, chúng có thể hoạt động đủ tốt, nhưng khi thất bại, chúng làm như vậy theo cách hiển thị rõ ràng chúng hoạt động theo một kiểu hoàn toàn khác.

Mặc dù Google dịch cho phép bạn đọc lướt nội dung của một trang web bằng tiếng nước ngoài, nhưng vẫn còn rất rõ ràng rằng hệ thống không biết họ đang làm gì.

Đôi khi tôi cảm thấy như không ai quan tâm, cũng bởi vì không ai bị tổn thương, phải không? Nhưng có lẽ đó vẫn là nền tảng văn hóa Đức của tôi mà chúng ta thích nhìn thấy mọi thứ hơn và lấy nó từ đó.

Đăng lần đầu vào ngày 30 tháng 7 năm 2016, trên phương tiện . Phiên bản này chứa các chỉnh sửa nhỏ và một vài liên kết.

4 hữu ích 0 bình luận 3.4k xem chia sẻ

Có thể bạn quan tâm

loading