BanditHijo.dev

Membuat Web Scraper dengan Ruby (Output: HTML)

Created at: 2020-06-12
Author by: BanditHijo

PERHATIAN!

Data yang penulis gunakan adalah data yang bersifat free public data. Sehingga, siapa saja dapat mengakses dan melihat tanpa perlu melalui layer authentikasi.

Penyalahgunaan data, bukan merupakan tanggung jawab dari penulis seutuhnya.

Prerequisite

ruby 2.6.6 rails 5.2.4 postgresql 12.3

Pendahuluan

Web scraping adalah teknik mengambil atau mengekstrak sebagian data dari suatu website secara spesifik, spesifik dalam arti hanya data tertentu saja yang diambil. Script atau program untuk melakukan hal tersebut, disebut dengan web scraper.

Objektif

Catatan kali ini saya akan mendokumentasikan proses dalam membuat web scraper dengan tujuan untuk mengambil data nama-nama dosen yang ada pada website resmi Biro Akademik Universitas Mulia Balikpapan yang ada pada halaman ini.

Hasil yang akan di dapatkan dari script yang akan kita buat adalah file html berisi daftar nama-nama dosen beserta nidn dalam bentuk tabel.

Penerapan

Langkah awal adalah persiapkan direktori untuk proyek.

Saya akan beri nama ruby-web-scraper-dosen.

Biasakan untuk memberi nama proyek tidak menggunakan karakter spasi.

$ mkdir ruby-web-scraper-dosen

Kemudian masuk ke dalam direktori proyek.

$ cd ruby-web-scraper-dosen

Buat file dengan nama Gemfile. dan kita akan memasang gem yang diperlukan di dalam file ini.

Gemfile
1source 'https://rubygems.org'
2
3gem 'httparty', '~> 0.18.1'
4gem 'nokogiri', '~> 1.10', '>= 1.10.9'
5gem 'byebug', '~> 11.1', '>= 11.1.3'

Setelah memasang gem pada Gemfile, kita perlu melakukan instalasi gem-gem tersebut.

$ bundle install

Proses bundle install di atas akan membuat sebuah file baru bernama Gemfile.lock yang berisi daftar dependensi dari gem yang kita butuhkan –daftar requirements–.

Sekarang kita akan membuat aktor utamanya. Beri nama scraper.rb.

scraper.rb
1# daftar gem yang diperlukan
2require 'httparty'
3require 'nokogiri'
4require 'byebug'
5
6def scraper
7 # blok ini bertugas untuk mengambil data dengan output berupa variabel array
8 target_url = "http://baak.universitasmulia.ac.id/dosen/"
9 unparsed_page = HTTParty.get(target_url)
10 parsed_page = Nokogiri::HTML(unparsed_page)
11 dosens = Array.new
12 dosen_listings = parsed_page.css('div.elementor-widget-wrap')
13 dosen_listings.each do |dosen_list|
14 dosen = {
15 nama_dosen: dosen_list.css("h2")[0]&.text,
16 nidn_dosen: dosen_list.css("h2")[1]&.text
17 }
18 if dosen[:nama_dosen] != nil
19 dosens << dosen # dosens, variable array yang menampung data para dosen
20 end
21 end
22 # aktifkan byebug apabila diperlukan
23 #byebug
24
25 # blok ini bertugas untuk membuat file html
26 File.delete("daftar_dosen.html") if File.exist?("daftar_dosen.html")
27 File.open("daftar_dosen.html", "w") do |f|
28 f.puts '<!DOCTYPE html>'
29 f.puts '<html lang="en">'
30 f.puts '<head>'
31 f.puts '<meta charset="UTF-8">'
32 f.puts "<title>Daftar Dosen Universitas Mulia (#{dosens.count} dosen)</title>"
33 f.puts '<style>table,th,td{border:1px solid black;border-collapse:collapse;}</style>'
34 f.puts '</head>'
35 f.puts '<body>'
36 f.puts '<table>'
37 # perulangan ini bertugas menginputkan data dosen ke dalam tabel row
38 dosens.each do |dosen|
39 f.puts '<tr>'
40 f.puts "<td>#{dosen[:nama_dosen]}</td>"
41 f.puts "<td>#{dosen[:nidn_dosen]}</td>"
42 f.puts '</tr>'
43 end
44 f.puts '</table>'
45 f.puts '</body>'
46 f.puts '</html>'
47 end
48
49 puts "TOTAL DOSEN: #{dosens.count} orang"
50end
51
52scraper

Kemudian, jalankan dengan perintah,

$ ruby scraper.rb

Apabila berhasil, akan terbuat sebuah file dengan nama daftar_dosen.html.

Coba buka file tersebut dengan Browser.

Hasilnya akan seprti ini.

Gambar 1

Gambar 1. Tabel daftar dosen hasil web scraping

Selesai!

Demonstrasi Video

Referensi

  1. It’s Time To HTTParty!
    Diakses tanggal: 2020/06/12

  2. nokogiri.org
    Diakses tanggal: 2020/06/12