Author: DK

  • Split_Sheet by Macro

    Split_Sheet by Macro

    เคยเป็นไหมเวลาได้รับไฟล์Excelแล้วเจอข้อมูลหลาย Sheet แต่ต้อง Save ออกมาทีละ Sheet วันนี้มี Trick เล็กๆมาแนะนำการแยกชีทโดย Macro มีขั้นตอนดังนี้

    1.ไปที่ File >> Option >>Customize Ribbon>>Develop

    2.เปิดไฟล์ที่ต้องการจะแบ่ง Sheet แล้วไปที่ Toolbar >> Develop>>Macro

    3.ตั้งชื่อ Macro และ กด Create

    4.นำสูตร Macro ไปวางแล้วกด Run

    Sub Splitbook()
                MyPath = ThisWorkbook.Path
                For Each sht In ThisWorkbook.Sheets
                sht.Copy
                ActiveSheet.Cells.Copy
                ActiveSheet.Cells.PasteSpecial Paste:=xlPasteValues
                ActiveSheet.Cells.PasteSpecial Paste:=xlPasteFormats
                ActiveWorkbook.SaveAs _
                Filename:=MyPath & "\" & sht.Name & ".xlsx"
                ActiveWorkbook.Close savechanges:=False
                Next sht
            End Sub

    5.เราจะได้ File Excel ที่ถูกสร้างขึ้นจากการแบ่ง Sheet

  • Mail Merge

    Mail Merge

    จดหมายเวียน คือ จดหมายที่มีข้อความเหมือนๆ กัน จะมีข้อความแตกต่างกันเพียงบางส่วนเท่านั้น การสร้างจดหมายเวียนจึงช่วยลดขั้นตอนและประหยัดเวลาในการทำงาน โดย Word สามารถสร้างฟอร์ม จดหมายและข้อมูลผู้รับ โดยนำเอกสารทั้ง 2 ส่วนมาผนวกกัน

    มีขั้นตอนการปฏิบัติ ดังนี้

    1.เตรียมไฟล์รายชื่ิอในโปรแกรม Microsoft Excel

    2.ไปที่ Microsoft Word >> Mailings >> Select Recipients>>Use an Existing list

    3.ไปที่ Insert Merge Field แล้วเลือกข้อมูลที่ต้องการจะใส่ในแต่ละส่วน

    4.แทรกข้อมูลที่ต้องการนำเข้า

    5.กด Preview Results เพื่อดูผลลัพธ์

    6.ไปที่ Finish & Merge >> Print Documents

  • Web Scraping ด้วย Python

    Web Scraping ด้วย Python

    คือ วิธีการในการดึงหรือสกัดเอาข้อมูลจากเว็บไซต์ต่าง ๆ ด้วยการใช้ซอฟต์แวร์ในการ scrape ข้อมูล หรือไม่ว่าจะเป็นการเขียนโปรแกรมด้วยภาษา Scripting Language อย่างภาษา Python เพื่อดึงข้อมูลเหล่านั้นมา โดยหน้าเว็บที่เราจะทำ web scraping ต้องเป็น public data อนุญาตให้เราสามารถดึงข้อมูลได้

    ที่มา:https://spectrum.ieee.org/python-compiler


    เริ่มต้นทำ Web Scraping ด้วย Python

    โดยสเต็ปแรกต้องติดตั้งไลบรารีที่จำเป็นอยู่ 2 ตัว คือ

    • Requests คืออ ไลบรารี่สำหรับเรียกใช้งาน HTTP Methods ต่าง ๆ ไม่ว่าจะเป็น GET, POST, PUT, DELETE เป็นต้น ซึ่งเป็นหลักการพื้นฐานของเว็บที่เราควรรู้

    ติดตั้ง requests

    pip install requests

    • BeautifulSoup4 คือ ไลบรารี่ที่เราจะใช้จัดการกับ HTML Elements และ Attributes ต่าง ๆ ที่เราได้ไป scrape มาในแต่ละหน้าเว็บ ซึ่งจะจัดการส่วนต่าง ๆ ให้เราทั้งหมด

    ติดตั้ง BeautifulSoup

    pip install beautifulsoup4

    1.import library

    import requests
    from bs4 import BeautifulSoup

    2.กำหนด URL ของเว็บที่เราจะสกัด (Scrape) เอาข้อมูล ซึ่งในบทความนี้เราจะมาสกัดเอาชื่อบทความของเว็บ Free Code Camp สุดยอดเว็บในดวงใจของเหล่าโปรแกรมเมอร์อีกเว็บนั่นเองครับ

    3. ส่ง GET request เพื่อดึงข้อมูลจากตัวแปร url ที่กำหนดไว้ก่อนหน้า

    response = requests.get(url)

    4.เมื่อได้ elements ทั้งหมดของหน้าเว็บเพจมาแล้ว ทำการกำหนดตัวแปร soup เพื่อเรียกใช้งานความสามารถของพระเอกของเราในวันนี้ นั่นก็คือคลาส BeautifulSoup() เพื่อสกัดเอาข้อมูลทั้งหมดออกมา เพื่อที่เราจะสามารถเข้าถึงข้อมูลใน HTML Tags แบบง่าย ๆ ได้ในขั้นตอนต่อไป

    soup = BeautifulSoup(response.content, "html.parser")

    5.ทดสอบแสดงผลข้อมูลที่เราต้องการจะสกัดออกมาด้วยคำสั่ง print ( )

    print(soup)

    6.ทำการเลือก scrape ข้อมูลที่ต้องการ ในที่นี้ก็คือชื่อบทความ โดยชื่อบทความของ Free Code Camp หรือเว็บส่วนใหญ่ทั่วไปแล้วก็จะใช้แท็ก    <h2>

    titles = []
    for title in soup.find_all("h2"):
    titles.append(title.get_text().strip())

    7.โดย flow ของโค้ดด้านบน

    • สร้างตัวแปร empty list ชื่อ  titles
    • ลูปข้อมูล พร้อมค้นหาแท็ก  h2  find_all() ด้วยเมธอด
    • เพิ่มข้อมูลเข้าไปใน empty list

    8.หรือจะเขียนเป็นแบบ List Comprehension (ผลลัพธ์เดียวกันกับด้านบนแต่โค้ดสั้นกว่า ในบรรทัดเดียว)

    titles = [title.get_text().strip() for title in soup.find_all("h2")]

    9.Loop ข้อมูลออกมาแสดงผล

    for title in titles:
    print("-", title)