Skip to content

NereusCodingAccount/learn_AI

Repository files navigation

Learn_AI

學習人工智慧

第一次大規模專案


concept 概念

format 格式

reference 參考


目的

學習人工智慧以及相關知識,增加見聞

發展趨勢

  • 深層網路(Deep Networks) → 層數越多,特徵學習越強。
  • 注意力機制(Attention) → 提高長距依賴學習能力。
  • 自監督學習(Self-Supervised) → 不用大量人工標註資料。
  • 多模態模型(Multimodal) → 同時理解文字、圖片、聲音。
  • 神經網路壓縮與部署(Edge AI) → 模型小型化、上手機。

‼️目標‼️

1. 學會神經網路架構

2025/10/20~2026/01/20

2. 學習深度學習 + C++

2025/01/21~2026/02/12

3. 理解 Attention / Transformer 架構 + HTML/CSS/JavaScript

BERT / GPT 基本概念、Tokenization、Embedding

能載入預訓練模型、輸入文字取得結果

可能Attention / Transformer會和ANN一起學

2026/02/14~2026/06/30

4. 使用 Hugging Face Transformers 套件

transformers, datasets, tokenizer

用現成模型做情緒分析、摘要、翻譯等任務

2026/07/01~2026/08/01

5. 微調現成模型(如 BERT、DistilGPT2

DataLoader、loss、optimizer、Trainer API

微調 BERT / DistilGPT2 做你自己的資料任務

2026/08/01~2026/09/01

6. 模型部署(API) Flask / FastAPI(建立 Web 伺服器)

把模型變成可呼叫的 REST API

2026/09/01~2025/10/01

7. 介面實作

Gradio / Streamlit / Discord Bot / 網頁前端

使用者可以直接操作模型

2026/10/01~2026/11/30

8. 模型壓縮與上線

Hugging Face Space、ONNX、量化

模型輕量化並部署到雲端平台

2026/12/01~2026/12/31


💫狀態💥

目前進度:人工神經網路架構--損失函數(照抄)

預定下一步(期望日期):翻譯(2025/11/20)

預定學深度學習:2026/1/20

狀態:時間趕(高速生產ing)


🧰工具與環境🪛

Python 3.10+ 主語言

Jupyter Notebook 寫模型方便實驗

PyTorch 或 TensorFlow 深度學習框架

Hugging Face Transformers NLP 模型

pandas, numpy, matplotlib 資料處理

Flask / Streamlit 展示成果


✒️檔案規劃📋

Markdown

(每個大概念)

1. 參考維基百科+問AI

2. 照抄

3. 翻譯

4. 補充+修正 "預判耗費時間大"

5. 定期補充資訊(from 國外論文or書籍or網路)

why?

翻譯原文檔案有一台手機也可以(在外面也行),但打出文檔用電腦比較方便。而且有多個文檔,我在外面也可以交互看。


更新日誌

請見Update_log.md

About

No description, website, or topics provided.

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Languages