Pencarian
Generative AI

Artikel 4 — Praktik Lengkap: GPT-5 Membuat Script Big Data untuk SCM (10.000 Baris) — Cleaning, Analisis, Visualisasi

Intro: Pertama Kali Mengolah Dataset Besar? Tenang. GPT-5 yang Bekerja, Anda yang Belajar. Bagi banyak mahasiswa, membuka file Excel 2000+ baris saja sudah membuat laptop “nge-freeze”. Apalagi dataset 10.000 baris, 50.000 baris, atau bahkan 100.000 baris.

Prompter JejakAI
Selasa, 2 Desember 2025
Oleh: Dimasti Dano
JejakAI
Leonardo AI
  • Di perkuliahan Big Data × SCM atau Business Analytics, mahasiswa sering bingung:
  • a. Bagaimana membaca data besar,
  • b. Bagaimana membersihkannya,
  • c. Bagaimana mencari insight,
  • d. Bagaimana membuat grafik,
  • e. Bagaimana membuat laporan.

    • Artikel ini menjawab semua itu step-by-step, dengan bantuan GPT-5 sebagai:
  • a. Penulis kode Python,
  • b. Tutor bagi pemula,
  • c. Analis data,
  • d. Interpreter hasil,
  • e. Dan konsultan SCM.

    • Anda cukup:
  • a. Menceritakan apa yang ingin dianalisis,
  • b. GPT-5 membuatkan kodenya,
  • c. Jalankan di Google Colab,
  • d. Lihat grafik dan insight,
  • e. GPT-5 jelaskan artinya.

  • Mari kita mulai.

Bagian 1 — Dataset: scm_bigdata_10000.csv

  • Dataset contoh terdiri dari 10.000 baris data transaksi SCM, biasanya berisi:
  • a. Date
  • b. Region
  • c. SKU
  • d. Qty
  • e. Price
  • f.   Revenue
  • g. Lead_time
  • h. Dll.

  • Inilah dataset besar yang akan kita olah.

Bagian 2 — Instruksi Mahasiswa ke GPT-5

Misalnya mahasiswa bertanya kepada GPT-5:

  • “GPT-5, tuliskan kode Google Colab untuk:
  • a. Membaca dataset 10.000 baris
  • b. Membersihkan kolom SKU dan region
  • c. Menghitung total demand per region
  • d. Menghitung top 10 SKU
  • e. Membuat grafik bar dan line

  • Jelaskan juga arti setiap bagian kode.”

GPT-5 lalu merespons dengan script lengkap (lihat bagian berikutnya).

Bagian 3 — Script Big Data Sederhana (Versi GPT-5)

Berikut kode yang GPT-5 tulis untuk mahasiswa pemula:

import numpy as np

import pandas as pd

import matplotlib.pyplot as plt

# 1. Upload file

from google.colab import files

uploaded = files.upload()

# 2. Membaca dataset besar

df = pd.read_csv("scm_bigdata_10000.csv")

# 3. Melihat 5 baris pertama

df.head()

  • Penjelasan:
  • a. Numpy, pandas, matplotlib → tiga library inti big data.
  • b. Files.upload() → membuka jendela upload di Colab.
  • c. Read_csv() → membaca dataset.
  • d. Head() → melihat contoh 5 baris.

  • Bagian 4 — Cleaning Data (Versi GPT-5)

GPT-5 otomatis memberikan langkah cleaning:

# Cleaning SKU dan region

df["SKU"] = df["SKU"].str.strip().str.upper()

df["region"] = df["region"].str.strip().str.upper()

# Menghapus baris kosong

df = df.dropna(subset=["qty", "SKU", "region"])

  • Penjelasan:
  • a. Strip() → menghapus spasi kiri–kanan
  • b. Upper() → menyeragamkan kapital
  • c. Dropna() → membuang baris kosong penting

  • Insight SCM:
    • Data kotor seperti:
  • a. " sku01 "
  • b. "SKU01"
  • c. "sku01"

  • akan dianggap 3 SKU berbeda.

Cleaning ini mencegah kesalahan analisis dan duplikasi SKU.

Bagian 5 — Analisis: Total Demand per Region

# Total demand per region

demand_region = df.groupby("region")["qty"].sum().sort_values(ascending=False)

print(demand_region)

  • Penjelasan:
  • a. groupby("region") = pivot table versi Python
  • b. sum() = menjumlahkan qty per region
  • c. sort_values() = mengurutkan dari terbesar

    • Insight untuk kelas MBA:
  • a. Region permintaan tertinggi = prioritas alokasi stok.
  • b. Region permintaan terendah = potensi efisiensi distribusi.
  • c. Perencanaan safety stock harus mempertimbangkan region demand tertinggi.

  • Bagian 6 — Analisis: Top 10 SKU

# TOP 10 sku

top_sku = df.groupby("SKU")["qty"].sum().sort_values(ascending=False).head(10)

print(top_sku)

  • Penjelasan:
  • a. Sama seperti pivot SKU
  • b. Hasil digunakan untuk:
    •        o Pareto analysis
  •        o SKU classification
  •        o inventory prioritization


  • Insight:
  • Dalam SCM, 20% SKU menghasilkan 80% volume (Pareto 80/20).
    • Top SKU ini seharusnya diberi:
  • a. Forecasting lebih akurat
  • b. Safety stock lebih besar
  • c. Monitoring yang lebih ketat

  • Bagian 7 — Visualisasi Demand per Region

demand_region.plot(kind="bar", figsize=(8,6), color="skyblue")

plt.title("Total Demand per Region")

plt.ylabel("Quantity")

plt.show()

  • Penjelasan:
  • a. Bar chart sangat cocok untuk perbandingan antar wilayah
  • b. Lebih cepat dibaca oleh manajemen
  • c. Mendukung pengambilan keputusan strategis

    • Insight:
  • Grafik menunjukkan:
  • a. Region mana paling dominan
  • b. Region mana yang menurun
  • c. Kemungkinan mismatch stok antar wilayah

  • Bagian 8 — Visualisasi Demand per Bulan

df["date"] = pd.to_datetime(df["date"])

df["month"] = df["date"].dt.to_period("M")

monthly_demand = df.groupby("month")["qty"].sum()

monthly_demand.plot(kind="line", marker="o", figsize=(10,5))

plt.title("Demand per Month")

plt.ylabel("Quantity")

plt.grid(True)

plt.show()

  • Penjelasan:
  • a. to_datetime() mengubah string menjadi tanggal
  • b. to_period("M") → bulan
  • c. line chart cocok untuk tren jangka waktu

    • Insight:
  • Mahasiswa dapat melihat pola:
  • a. Seasonality
  • b. Peak demand
  • c. Low season
  • d. Pola produksi dan distribusi

  • Bagian 9 — Bagaimana GPT-5 Menginterpretasi Outputnya?

Mahasiswa cukup menyalin hasil output dari Colab ke GPT-5.

Contoh prompt:

“GPT-5, ini hasil groupby region saya:

[paste output]

Tolong interpretasi secara manajerial untuk konteks SCM.”

  • GPT-5 akan memberikan:
  • a. Ringkasan pola
  • b. Penyebab kemungkinan
  • c. Implikasi terhadap stockout
  • d. Rekomendasi supply chain
  • e. Strategi inventory

  • Contoh interpretasi seperti GPT-5:

“Region JABAR memiliki demand 25% tertinggi.

Artinya JABAR perlu safety stock lebih besar dan lead time monitoring lebih intensif.

Region BALI stabil sehingga cocok memakai fixed reorder point.”

Inilah yang membuat GPT-5 bukan hanya “mesin coding”, tetapi analis supply chain virtual.

Bagian 10 — Kesimpulan: Mahasiswa Tidak Lagi Takut Big Data

  • Setelah membaca Artikel 4 ini, mahasiswa pemula kini tahu:
  • a. Bagaimana dataset besar diproses
  • b. Bagaimana GPT-5 menulis kode lengkap
  • c. Bagaimana cleaning dilakukan
  • d. Bagaimana groupby dipakai seperti pivot
  • e. Bagaimana grafik dibuat
  • f.     Bagaimana insight ditarik dari data

    • Dengan kombinasi GPT-5 + Google Colab:
  • a. Mahasiswa tidak perlu belajar coding dari nol
  • b. Fokus langsung pada analisis dan insight
  • c. Bisa mengolah data besar (10.000+ baris)
  • d. Percaya diri dalam mengambil keputusan berbasis data

Komentar
Silakan lakukan login terlebih dahulu untuk bisa mengisi komentar.
JejakAI
Exploring AI for Humanity
JejakAI adalah situs web yang membahas berita, tren, dan perkembangan terbaru seputar kecerdasan buatan, menghadirkan analisis mendalam serta informasi terkini tentang inovasi di dunia AI.
Copyright © 2025 JejakAI. All Rights Reserved. | dashboard