Pencarian
Generative AI

Artikel 7 — Final: Membangun Alur Kerja Lengkap Big Data × SCM Menggunakan GPT-5: Dari Data Mentah Sampai Insight Manajerial

Pendahuluan: Mahasiswa Sekarang Tidak Lagi Belajar Python—Mereka Belajar Mengambil Keputusan Berbasis Big Data Serial artikel ini dimulai dari pertanyaan sederhana: “Bisakah mahasiswa non-programmer memproses big data dengan Python?”

Prompter JejakAI
Selasa, 2 Desember 2025
Oleh: Dimasti Dano
JejakAI
Leonardo AI

Jawabannya menjadi sangat jelas setelah kita melihat kekuatan GPT-5:

  • a. GPT-5 menuliskan kode Python dengan benar.
  • b. GPT-5 mengajari konsep Python secara sederhana.
  • c. GPT-5 membantu copy–paste kode ke Google Colab.
  • d. GPT-5 memperbaiki error dengan cepat.
  • e. GPT-5 menganalisis output dan memberikan insight.

  • Pada titik ini, Python bukan lagi hambatan, tetapi alat bantu. Sedangkan GPT-5 menjadi co-analyst, co-tutor, dan co-mentor yang berjalan berdampingan dengan mahasiswa.

Dalam artikel terakhir ini, kita akan menyusun pipeline lengkap Big Data × SCM:

Dari data mentah → cleaning → analisis → visualisasi → interpretasi → insight → rekomendasi manajerial.

Alur ini setara dengan pekerjaan analis data operasional di perusahaan retail, manufaktur, agribisnis, logistik, hingga ekspor–impor.

Bagian 1 — Gambaran Umum Alur Kerja Big Data × SCM

Pipeline dasar Big Data dalam konteks Supply Chain adalah:

  • a. Upload Data
  • b. Load ke Python
  • c. Cleaning (paling penting!)
  • d. Exploratory Data Analysis (EDA)
  • e. Analisis SCM inti
  • f.     Visualisasi
  • g. Interpretasi GPT-5
  • h. Laporan & Insight

  • Mari kita bahas dengan detail dan contoh nyata.

  • Bagian 2 — Upload Dataset 10.000+ Baris ke Google Colab

Gunakan kode:

from google.colab import files

uploaded = files.upload()

Pilih file:

scm_bigdata_10000.csv

Hasil upload akan muncul:

Saving scm_bigdata_10000.csv to scm_bigdata_10000.csv

Ini berarti data siap diolah.

Bagian 3 — Load dan Lihat Isi Data

import pandas as pd

df = pd.read_csv("scm_bigdata_10000.csv")

df.head()

Yang dilakukan:

  • a. membaca dataset ke dataframe
  • b. menampilkan 5 baris pertama

  • Tujuan:

memastikan struktur data benar.

Bagian 4 — Cleaning Data (Langkah Terpenting)

Data SCM biasanya tidak rapi:

  • a. SKU salah ketik
  • b. SPASI di depan/akhir
  • c. Huruf kecil/campur
  • d. Region tidak konsisten
  • e. Tanggal dalam format string
  • f.     Null values
  • g. Angka salah format

  • Gunakan kode:

df["SKU"] = df["SKU"].str.strip().str.upper()

df["region"] = df["region"].str.strip().str.upper()

df = df.dropna(subset=["qty", "SKU", "region"])

df["date"] = pd.to_datetime(df["date"])

  • Inilah magic cleaning:
  • a. Menyeragamkan SKU
  • b. Menyeragamkan region
  • c. Membuang baris kosong penting
  • d. Mengubah tanggal jadi format datetime

  • Tanpa cleaning, hasil analisis akan salah.

Bagian 5 — Exploratory Data Analysis (EDA)

EDA membantu “melihat isi data” sebelum masuk ke analisis SCM.

1. Jumlah baris & kolom

df.shape

2. Statistik dasar

df.describe()

3. SKU paling sering muncul

df["SKU"].value_counts().head(10)

4. Outlier qty

df["qty"].plot(kind="box", figsize=(4,6))

Tujuan EDA:

mendapatkan pemahaman awal tentang pola, noise, dan potensi masalah data.

Bagian 6 — Analisis SCM Inti

Inilah bagian yang paling sering dipakai di kelas MBA:

1. Demand per Region

demand_region = df.groupby("region")["qty"].sum().sort_values(ascending=False)

print(demand_region)

Interpretasi GPT-5:

“Region JABAR menyerap 24% total demand, sehingga harus menjadi prioritas alokasi stok dan replenishment.”

2. Top 10 SKU

top_sku = df.groupby("SKU")["qty"].sum().sort_values(ascending=False).head(10)

print(top_sku)

Interpretasi:

“SKU-001 dan SKU-002 adalah fast movers. Perlu forecasting yang lebih akurat dan safety stock lebih besar.”

3. Trend Demand Bulanan

df["month"] = df["date"].dt.to_period("M")

monthly_demand = df.groupby("month")["qty"].sum()

monthly_demand

Output:

2024-01       8900

2024-02       9100

2024-03   10000

...

Interpretasi:

“Ada pola kenaikan signifikan setelah Maret, menunjukkan onset peak season.”

Bagian 7 — Visualisasi untuk Insight Cepat

Bar Chart — Demand per Region

demand_region.plot(kind="bar", figsize=(8,6))

plt.title("Demand per Region")

plt.ylabel("Quantity")

plt.show()

Line Chart — Demand per Bulan

monthly_demand.plot(kind="line", marker="o", figsize=(10,5))

plt.title("Monthly Demand Trend")

plt.grid(True)

plt.show()

Histogram — Distribusi Lead Time

df["lead_time"].plot(kind="hist", bins=20, figsize=(8,5))

plt.title("Lead Time Distribution")

plt.show()

  • Visualisasi membantu:
  • a. menemukan pola
  • b. melihat seasonality
  • c. mengidentifikasi outlier
  • d. memahami risiko operasional

  • Bagian 8 — Meminta GPT-5 Menginterpretasi Hasil (Yang Paling Penting!)

Setelah hasil muncul, mahasiswa cukup mem-paste hasilnya ke GPT-5.

Contoh prompt:

“GPT-5, berikut hasil groupby region saya:

[paste output]

Berikan interpretasi level MBA dan rekomendasi manajerial.”

Contoh output interpretasi GPT-5:

  • “JABAR adalah demand center terbesar dengan kontribusi 24%. Safety stock harus ditingkatkan 15–20%.  BALI dan SUMUT memiliki demand rendah, cocok untuk strategi lean inventory. Distribusi ini menunjukkan kebutuhan diferensiasi kebijakan inventory per region.”

    • GPT-5 dapat memberikan:
  • a. Insight operasional
  • b. Insight inventory
  • c. Rekomendasi strategi
  • d. Analisis risiko
  • e. Perbandingan antar region
  • f.     Dampak manajerial

  • Inilah hal yang tidak dapat diberikan Excel.

Bagian 9 — Menyusun Laporan Analisis Big Data

Mahasiswa dapat meminta GPT-5 membuat laporan:

  • a.  Executive Summary
  •  b. Insight manajerial
  •  c. Rekomendasi
  •  d. Lampiran hasil analisis
  •  e. Grafis untuk presentasi

  • Contoh prompt:

“Buatkan laporan ringkas berbasis hasil analisis ini untuk tugas kuliah SCM.”

GPT-5 akan membuat laporan yang rapi, seperti konsultan.

Bagian 10 — Kesimpulan Besar: GPT-5 dan Python Mengubah Cara Mahasiswa Belajar Big Data

Dari keseluruhan serial ini, satu kesimpulan besar muncul:

Mahasiswa tidak perlu menjadi programmer untuk bisa menganalisis big data. Yang penting adalah kemampuan memahami data — sisanya dibantu GPT-5.

  • GPT-5 berperan sebagai:
  • a. Penulis kode Python
  • b. Pengajar Python
  • c. Debugger error
  • d. Analis data
  • e. Pemberi insight
  • f.     Penyusun laporan
  • g. Rekan belajar 24 jam

    • Dengan Google Colab sebagai alat, dan GPT-5 sebagai mentor, mahasiswa kini mampu:
  • a. Membaca dataset ribuan–jutaan baris
  • b. Membersihkan data
  • c. Membuat grafik analitis
  • d. Menjalankan simulasi
  • e. Mengevaluasi KPI
  • f.     Menyusun insight
  • g. Membuat rekomendasi manajerial
  • h. Melakukan analisis tingkat profesional

  • Dan semuanya bisa dipelajari bahkan oleh mahasiswa yang tidak pernah coding sebelumnya.

Komentar
Silakan lakukan login terlebih dahulu untuk bisa mengisi komentar.
JejakAI
Exploring AI for Humanity
JejakAI adalah situs web yang membahas berita, tren, dan perkembangan terbaru seputar kecerdasan buatan, menghadirkan analisis mendalam serta informasi terkini tentang inovasi di dunia AI.
Copyright © 2025 JejakAI. All Rights Reserved. | dashboard