Nội dung chính Lịch sử phát triển của trí tuệ nhân tạo.Có nhiều giai đoạn hình thành của trí tuệ nhân tạo, theo một số nguồn tài liệu chính thống, sự hình thành của trí tuệ nhân tạo được chia thành các giai đoạn và cột mốc lịch sử như sau: Sự hình thành của trí tuệ nhân tạo ( giai đoạn 1943 – 1955)Công việc đầu tiên được công nhận rộng rãi như Trí tuệ Nhân tạo ngày nay đã được thực hiện bởi Warren McCulloch và Walter Pitts (1943).
Họ sử dụng ba nguồn thông tin: – Kiến thức về sinh lý cơ bản và chức năng của tế bào thần kinh trong não; – Một phân tích hình thức về logic mệnh đề của Russell và Whitehead; – Và lý thuyết tính toán của Turing. Họ đề xuất một mô hình tế bào thần kinh nhân tạo trong đó mỗi tế bào thần kinh được đặc trưng là “bật” hoặc “tắt”, với công tắc chuyển sang trạng thái “bật” xảy ra khi nhận được kích thích từ một số đủ lớn các tế bào thần kinh láng giềng. Trạng thái của một tế bào thần kinh được hiểu như “tương đương với một mệnh đề đề xuất kích thích đủ.” Họ chứng minh, ví dụ, rằng bất kỳ hàm có thể tính nào cũng có thể được tính bằng một mạng lưới nối các tế bào thần kinh, và tất cả các kết nối logic (và, hoặc, không, vv.) có thể được thực hiện bằng cấu trúc mạng đơn giản. McCulloch và Pitts cũng đề xuất rằng các mạng được định nghĩa một cách phù hợp có thể học. Donald Hebb (1949) đã chứng minh một quy tắc cập nhật đơn giản để sửa đổi sức kết nối giữa các tế bào thần kinh. Quy tắc của ông, hiện được gọi là học Hebbian, vẫn là một mô hình có ảnh hưởng đến ngày nay. Hai sinh viên đại học tại Harvard, Marvin Minsky và Dean Edmonds, đã chế tạo chiếc máy tính mạng thần kinh đầu tiên vào năm 1950. SNARC, như tên gọi của nó, đã sử dụng 3000 ống chân không và một cơ chế thí điểm tự động dư thừa từ máy bay ném bom B-24 để mô phỏng một mạng lưới các 40 tế bào thần kinh. Sau đó, tại Princeton, Minsky nghiên cứu tính toán phổ quát trong mạng lưới thần kinh. Khai sinh của trí tuệ nhân tạo (1956).Princeton là quê hương của một nhân vật có ảnh hưởng khác trong lĩnh vực AI, John McCarthy. Sau khi nhận bằng Tiến sĩ ở đó vào năm 1951 và làm giảng viên trong hai năm, McCarthy chuyển đến Stanford rồi đến Đại học Dartmouth, nơi trở thành nơi khai sinh chính thức của lĩnh vực này. McCarthy thuyết phục Minsky, Claude Shannon và Nathaniel Rochester giúp ông tập hợp các nhà nghiên cứu Hoa Kỳ quan tâm đến lý thuyết máy tự động, mạng lưới thần kinh và nghiên cứu về trí thông minh. Họ tổ chức một hội thảo kéo dài hai tháng tại Dartmouth vào mùa hè năm 1956. Đề xuất nêu rõ: “Chúng tôi đề xuất một cuộc nghiên cứu về trí tuệ nhân tạo kéo dài 2 tháng với 10 người sẽ được thực hiện vào mùa hè năm 1956 tại Đại học Dartmouth ở Hanover, New Hampshire. Nghiên cứu này được tiến hành trên cơ sở phỏng đoán rằng mọi khía cạnh của việc học hoặc bất kỳ đặc điểm nào khác của trí thông minh về nguyên tắc đều có thể được mô tả chính xác đến mức có thể tạo ra một chiếc máy để mô phỏng nó. Một nỗ lực sẽ được thực hiện để tìm ra cách làm cho máy móc sử dụng ngôn ngữ, hình thành các khái niệm và khái niệm trừu tượng, giải quyết các loại vấn đề hiện chỉ dành cho con người và cải thiện bản thân. Chúng tôi nghĩ rằng có thể đạt được tiến bộ đáng kể trong một hoặc nhiều vấn đề này nếu một nhóm các nhà khoa học được lựa chọn cẩn thận cùng nhau giải quyết vấn đề đó trong một mùa hè. Có tất cả 10 người tham dự, bao gồm Trenchard More từ Princeton, Arthur Samuel từ IBM, Ray Solomonoff và Oliver Selfridge từ MIT. Hai nhà nghiên cứu từ Carnegie Tech, Allen Newell và Herbert Simon, đã thu hút sự chú ý. Mặc dù những người khác có ý tưởng và trong một số trường hợp là các chương trình dành cho các ứng dụng cụ thể như cờ đam, Newell và Simon đã có một chương trình suy luận, Nhà lý luận logic (LT), về chương trình này Simon tuyên bố: “Chúng tôi đã phát minh ra một chương trình máy tính có khả năng suy nghĩ”. phi số, và do đó giải quyết được vấn đề đáng kính về tâm trí và cơ thể.”
Russell được cho là rất vui mừng khi Simon cho anh ta thấy rằng chương trình đã đưa ra cách chứng minh cho một định lý ngắn hơn định lý ở Principia. Các biên tập viên của Tạp chí Logic Biểu tượng ít ấn tượng hơn; họ từ chối một bài báo được đồng tác giả bởi Newell, Simon và Nhà lý thuyết logic. Hội thảo ở Dartmouth không dẫn đến bất kỳ bước đột phá mới nào, nhưng nó đã giới thiệu tất cả các nhân vật chính với nhau. Trong 20 năm tới, lĩnh vực này sẽ bị chi phối bởi những người này, sinh viên và đồng nghiệp của họ tại MIT, CMU, Stanford và IBM. Nhìn vào đề xuất tổ chức hội thảo ở Dartmouth (McCarthy và cộng sự, 1955), chúng ta có thể hiểu tại sao AI cần phải trở thành một lĩnh vực riêng biệt.
Tại sao tất cả công việc được thực hiện trong AI không thể diễn ra dưới tên lý thuyết điều khiển hoặc nghiên cứu hoạt động hoặc lý thuyết quyết định, những lý thuyết này xét cho cùng đều có mục tiêu tương tự như mục tiêu của AI? Hay tại sao AI không phải là một nhánh của toán học? Câu trả lời đầu tiên là AI ngay từ đầu đã chấp nhận ý tưởng nhân rộng các khả năng của con người như tính sáng tạo, khả năng tự hoàn thiện và khả năng sử dụng ngôn ngữ. Không có lĩnh vực nào khác giải quyết được những vấn đề này. Câu trả lời thứ hai là phương pháp luận. AI là lĩnh vực duy nhất trong số này rõ ràng là một nhánh của khoa học máy tính (mặc dù nghiên cứu vận hành có chung sự nhấn mạnh vào mô phỏng máy tính) và AI là lĩnh vực duy nhất cố gắng chế tạo những cỗ máy có thể hoạt động tự động trong các môi trường phức tạp, luôn thay đổi. Giai đoạn kỳ vọng của AI (1952-1969)Những năm đầu của AI có ít thành công hoặc thành công ở một mức độ hạn chế. Với những chiếc máy tính và công cụ lập trình thô sơ của thời đó, cũng như thực tế là chỉ vài năm trước đây, máy tính được coi là những thứ chỉ có thể làm số học và không hơn thế nữa, sẽ được cho là đáng kinh ngạc mỗi khi một chiếc máy tính làm được bất cứ điều gì thông minh hơn một chút. Nhìn chung, giới trí thức thích tin rằng “một cỗ máy không bao giờ có thể làm được việc X”. Các nhà nghiên cứu AI phản ứng một cách tự nhiên bằng cách chứng minh hết X này đến X khác. Thành công ban đầu của Newell và Simon được nối tiếp với Bộ giải quyết vấn đề chung hay còn gọi là GPS. Không giống như Nhà lý luận logic, chương trình này ngay từ đầu đã được thiết kế để bắt chước các giao thức giải quyết vấn đề của con người. Trong phạm vi loại câu đố giới hạn mà nó có thể xử lý, hóa ra thứ tự mà chương trình xem xét các mục tiêu phụ và các hành động khả thi cũng tương tự như thứ tự mà con người tiếp cận các vấn đề tương tự. Vì vậy, GPS có lẽ là chương trình đầu tiên thể hiện cách tiếp cận “tư duy con người”. Sự thành công của GPS và các chương trình tiếp theo như mô hình nhận thức đã khiến Newell và Simon (1976) hình thành nên giả thuyết hệ thống ký hiệu vật lý nổi tiếng, trong đó khẳng định rằng “một hệ thống ký hiệu vật lý có các phương tiện cần và đủ cho hành động thông minh nói chung”. Ý của họ là bất kỳ hệ thống nào (con người hoặc máy móc) thể hiện trí thông minh đều phải hoạt động bằng cách thao tác các cấu trúc dữ liệu bao gồm các ký hiệu. Sau này chúng ta sẽ thấy rằng giả thuyết này đã bị thách thức từ nhiều hướng. Tại IBM, Nathaniel Rochester và các đồng nghiệp của ông đã tạo ra một số chương trình AI đầu tiên. Herbert Gelernter (1959) đã xây dựng Công cụ chứng minh định lý hình học, có thể chứng minh các định lý mà nhiều sinh viên toán học thấy khá khó khăn. Bắt đầu từ năm 1952, Arthur Samuel đã viết một loạt chương trình dành cho cờ đam (cờ) mà cuối cùng họ đã học cách chơi ở cấp độ nghiệp dư mạnh mẽ. Trên đường đi, ông đã bác bỏ ý kiến cho rằng máy tính người chơi chỉ có thể làm những gì họ được yêu cầu: chương trình của anh ấy nhanh chóng học được cách chơi một trò chơi hay hơn người tạo ra nó. Chương trình được trình chiếu trên truyền hình vào tháng 2 năm 1956, gây ấn tượng mạnh. Giống như Turing, Samuel gặp khó khăn trong việc tìm kiếm thời gian sử dụng máy tính. Làm việc vào ban đêm, anh sử dụng những chiếc máy vẫn còn trên sàn thử nghiệm tại nhà máy sản xuất của IBM. John McCarthy chuyển từ Dartmouth đến MIT và ở đó đã có ba đóng góp quan trọng trong một năm lịch sử: 1958. Trong Bản ghi nhớ số 1 của Phòng thí nghiệm AI của MIT, McCarthy đã định nghĩa ngôn ngữ cấp cao Lisp, ngôn ngữ này sẽ trở thành ngôn ngữ lập trình AI thống trị cho 30 năm tiếp theo. Với Lisp, McCarthy có công cụ anh cần, nhưng việc tiếp cận các nguồn tài nguyên máy tính khan hiếm và đắt tiền cũng là một vấn đề nghiêm trọng. Để đáp lại, ông và những người khác tại MIT đã phát minh ra việc chia sẻ thời gian. Cũng trong năm 1958, McCarthy đã xuất bản một bài báo có tựa đề Các chương trình với nhận thức chung, trong đó ông mô tả Người tư vấn, một chương trình giả định có thể được coi là hệ thống AI hoàn chỉnh đầu tiên. Giống như Nhà lý thuyết logic và Người chứng minh định lý hình học, chương trình của McCarthy được thiết kế để sử dụng kiến thức nhằm tìm kiếm giải pháp cho các vấn đề. Nhưng không giống như những cái khác, nó thể hiện kiến thức chung về thế giới. Ví dụ, ông đã chỉ ra cách một số tiên đề đơn giản có thể giúp chương trình tạo ra kế hoạch lái xe đến sân bay. Chương trình cũng được thiết kế để chấp nhận các tiên đề mới trong quá trình hoạt động bình thường, từ đó cho phép nó đạt được năng lực trong các lĩnh vực mới mà không cần lập trình lại. Do đó, lời khuyên đưa đã thể hiện các nguyên tắc trung tâm của việc trình bày và lý luận kiến thức: rằng sẽ rất hữu ích nếu có một cách trình bày chính thức, rõ ràng về thế giới và hoạt động của nó cũng như có khả năng vận dụng cách trình bày đó bằng các quá trình suy diễn. Điều đáng chú ý là phần lớn nội dung của bài báo năm 1958 vẫn còn phù hợp cho đến ngày nay. Năm 1958 cũng đánh dấu năm Marvin Minsky chuyển đến MIT. Tuy nhiên, sự hợp tác ban đầu của anh với McCarthy không kéo dài. McCarthy nhấn mạnh đến cách biểu diễn và lý luận trong logic hình thức, trong khi Minsky quan tâm nhiều hơn đến việc làm cho các chương trình hoạt động và cuối cùng đã phát triển một quan điểm phản logic. Năm 1963, McCarthy thành lập phòng thí nghiệm AI tại Stanford. Kế hoạch sử dụng logic để xây dựng Người đưa ra lời khuyên cuối cùng của ông được thúc đẩy nhờ khám phá của J. A. Robinson vào năm 1965 về phương pháp phân giải (một thuật toán chứng minh định lý hoàn chỉnh cho logic bậc nhất; xem Chương 9). Công việc tại Stanford nhấn mạnh các phương pháp có mục đích chung cho lý luận logic. Các ứng dụng của logic bao gồm hệ thống lập kế hoạch và trả lời câu hỏi của Cordell Green (Green, 1969b) và dự án robot Shakey tại Viện nghiên cứu Stanford (SRI).
Minsky giám sát một loạt học sinh chọn những vấn đề hạn chế có vẻ đòi hỏi trí thông minh để giải quyết. Những miền giới hạn này được gọi là thế giới vi mô. Chương trình SAINT của James Slagle (1963) đã có thể giải các bài toán tích phân dạng đóng điển hình của các khóa học đại học năm thứ nhất. Chương trình PHƯƠNG PHÁP của Tom Evans (1968) đã giải quyết các vấn đề tương tự hình học xuất hiện trong các bài kiểm tra IQ.
Công việc xây dựng mạng lưới thần kinh ban đầu của McCulloch và Pitts cũng phát triển mạnh mẽ. Công trình của Winograd và Cowan (1963) cho thấy một số lượng lớn các phần tử có thể biểu diễn chung một khái niệm riêng lẻ như thế nào, với sự gia tăng tương ứng về tính mạnh mẽ và tính song song. Phương pháp học tập của Hebb đã được nâng cao bởi Bernie Widrow (Widrow và Hoff, 1960; Widrow, 1962), người đã gọi các mạng lưới của mình là adalines, và bởi Frank Rosenblatt (1962) với các perceptron của mình. Định lý hội tụ perceptron (Block et al., 1962) nói rằng thuật toán học có thể điều chỉnh cường độ kết nối của perceptron để khớp với bất kỳ dữ liệu đầu vào nào, miễn là có sự trùng khớp như vậy.
Vào đầu những năm 1980, những nghiên cứu thành công liên quan đến AI như các hệ chuyên gia (expert systems) – một dạng của chương trình AI mô phỏng tri thức và các kỹ năng phân tích của một hoặc nhiều chuyên gia con người Vào những năm 1990 và đầu thế kỷ 21, AI đã đạt được những thành tựu to lớn nhất, AI được áp dụng trong logic, khai phá dữ liệu, chẩn đoán y học và nhiều lĩnh vực ứng dụng khác trong công nghiệp. Sự thành công dựa vào nhiều yếu tố: tăng khả năng tính toán của máy tính, tập trung giải quyết các bài toán con cụ thể, xây dựng các mối quan hệ giữa AI và các lĩnh vực khác giải quyết các bài toán tương tự, và một sự chuyển giao mới của các nhà nghiên cứu cho các phương pháp toán học vững chắc và chuẩn khoa học chính xác. Đặc biệt, sự phát triển vượt bậc của AI có sức ảnh hưởng lớn tới toàn bộ giới nghiên cứu cũng như cộng đồng. ChatGPT là một phần của loạt mô hình của OpenAI được gọi là GPT (Generative Pre-trained Transformer), và nó được phát triển như một tiếp theo của các phiên bản trước đó như GPT-2 và GPT-3. Dưới đây là một tóm tắt về sự hình thành và phát triển của ChatGPT: – GPT-2: Mô hình GPT-2 được giới thiệu vào tháng 2 năm 2019. Đây là một mô hình học máy có kích thước lớn, có khả năng tạo ra văn bản tự nhiên với chất lượng ấn tượng. Tuy nhiên, do lo ngại về an toàn và lạm dụng, OpenAI ban đầu đã không công bố toàn bộ mã nguồn của GPT-2. – OpenAI’s Approach to Development: OpenAI đã thay đổi chiến lược của mình và chuyển từ việc giữ lại toàn bộ mã nguồn sang việc công bố mã nguồn và mô hình GPT-2 vào tháng 11 năm 2019. Họ cũng thực hiện các bước cải tiến trong việc kiểm soát an toàn và đạo đức trong việc sử dụng công nghệ AI. – GPT-3: Mô hình GPT-3 được công bố vào tháng 6 năm 2020 và là một bước tiến quan trọng với 175 tỷ tham số, là một trong những mô hình lớn nhất và mạnh mẽ nhất trong lĩnh vực trí tuệ nhân tạo. – ChatGPT: ChatGPT là một biến thể của GPT-3, được tinh chỉnh để tập trung vào khả năng tương tác và giao tiếp với người dùng. Nó được giới thiệu thông qua các phiên bản như ChatGPT và ChatGPT Plus, phiên bản có phí với một số tính năng nâng cao. – Fine-Tuning và User Feedback: OpenAI đã sử dụng các phản hồi từ người dùng để cải thiện và fine-tune mô hình, đặc biệt là liên quan đến việc giải quyết những vấn đề như sự không chắc chắn trong câu trả lời và kiểm soát nội dung. Những bước tiến này cho thấy cam kết của OpenAI trong việc phát triển các mô hình AI mạnh mẽ. Đồng thời ngày nay khi sự phát triển vượt bậc và to lớn của trí tuệ nhân, các vấn đề như an toàn, đạo đức và khả năng sử dụng công bằng của công nghệ AI.
|