Python 2.7 如何将几个python脚本合并成一个脚本?

Python 2.7 如何将几个python脚本合并成一个脚本?,python-2.7,merge,Python 2.7,Merge,说到编程和python,我是新手。 所以我有一个问题。和我的同学们一起,我们创建了一些python脚本,但现在我们陷入了困境,没有更多的想法。我们需要将几个python脚本合并成一个工作脚本。有人能帮我们吗? 脚本: #脚本:webpage_get.py #Desc:从网页获取数据,并解析出超链接。 #作者:Wojciech Kociszewski #创建日期:2013年11月 # 导入系统,urllib def wget(url): ''尝试通过其url检索网页,并返回其内容'' 打印“[*]

说到编程和python,我是新手。 所以我有一个问题。和我的同学们一起,我们创建了一些python脚本,但现在我们陷入了困境,没有更多的想法。我们需要将几个python脚本合并成一个工作脚本。有人能帮我们吗? 脚本:

#脚本:webpage_get.py
#Desc:从网页获取数据,并解析出超链接。
#作者:Wojciech Kociszewski
#创建日期:2013年11月
#
导入系统,urllib
def wget(url):
''尝试通过其url检索网页,并返回其内容''
打印“[*]wget()”
#基于url从web打开类似url的文件对象
url\u file=urllib.urlopen(url)
#获取网页内容
page=url\u file.read()
返回页
def main():
#临时测试url参数
sys.argv.append('http://www.soc.napier.ac.uk/~cs342/CSN08115/cw_网页/index.html')
#检查args
如果len(sys.argv)!=2:
打印“[-]用法:网页\u获取URL”
返回
#获取并分析网页
打印工作组(sys.argv[1])
如果uuuu name uuuuuu='\uuuuuuu main\uuuuuuu':
main()
#脚本:webpage_getlinks.py
#描述:基本网站信息收集和分析脚本。从URL获取
#页面内容,解析链接。
#作者:Wojciech Kociszewski
#创建日期:2013年11月
#
导入系统,re
导入网页
def打印链接(第页):
''查找作为输入和打印传入的网页上的所有超链接''
打印“[*]打印链接()
#正则表达式匹配超链接,返回3个GRP,链接[1]为链接本身

links=re.findall(r’(\分析脚本并找到常见代码

将公共代码转换为模块

用通用代码重写各个程序


如果您希望将各个程序合并为一个大程序,那么将更加容易

将它们发布在此处,也许我们可以为具体问题提供建议。否则,可能不会。您可以在合并它们后尝试codereview.stackexchange.com。
# Script: webpage_get.py
# Desc: Fetches data from a webpage, and parses out hyperlinks.
# Author: Wojciech Kociszewski
# Created: Nov, 2013
#
import sys, urllib

def wget(url):
    ''' Try to retrieve a webpage via its url, and return its contents'''
    print '[*] wget()'
    #open file like url object from web, based on url
    url_file = urllib.urlopen(url)
    # get webpage contents
    page = url_file.read()
    return page

def main():
    #temp testing url argument
    sys.argv.append('http://www.soc.napier.ac.uk/~cs342/CSN08115/cw_webpage/index.html')
    #check args
    if len(sys.argv) != 2:
        print '[-] Usage: webpage_get URL'
        return

    #Get and analyse web page
    print wget(sys.argv[1])

if __name__ == '__main__':
    main()
# Script: webpage_getlinks.py
# Desc: Basic web site info gathering and analysis script. From a URL gets
# page content, parsing links out.
# Author: Wojciech Kociszewski
# Created: Nov, 2013
#
import sys, re
import webpage_get

def print_links(page):
    ''' find all hyperlinks on a webpage passed in as input and print '''
    print '[*] print_links()'
    # regex to match on hyperlinks, returning 3 grps, links[1] being the link itself
    links = re.findall(r'(\<a.*href\=.*)(http\:.+)(?:[^\'" >]+)', page)
    # sort and print the links
    links.sort()
    print '[+]', str(len(links)), 'HyperLinks Found:'
    for link in links:
        print link[1]

def main():
    # temp testing url argument
    sys.argv.append('http://www.soc.napier.ac.uk/~cs342/CSN08115/cw_webpage/index.html')
    # Check args
    if len(sys.argv) != 2:
        print '[-] Usage: webpage_getlinks URL'
        return

    # Get the web page
    page = webpage_get.wget(sys.argv[1])
    # Get the links
    print_links(page)
if __name__ == '__main__':
    main()
# Script: webpage_getemails.py
# Desc: Basic web site info gathering and analysis script. From a URL gets
# page content, parsing emails out.
# Author: Wojciech Kociszewski
# Created: Nov, 2013
#
import sys, re
import webpage_get

def print_emails(page):
    ''' find all emails on a webpage passed in as input and print '''
    print '[*] print_emails()'
    # regex to match on emails
    emails = re.findall(r'([\d\w\.-_]+@[\w\d\.-_]+\.\w+)', page)
    # sort and print the emails
    emails.sort()
    print '[+]', str(len(emails)), 'Emails Found:'
    for email in emails:
        print email

def main():
    # temp testing url argument
    sys.argv.append('http://www.soc.napier.ac.uk/~cs342/CSN08115/cw_webpage/index.html')
    # Check args
    if len(sys.argv) != 2:
        print '[-] Usage: webpage_getemails'
        return

    # Get the web page
    page = webpage_get.wget(sys.argv[1])
    # Get the emails
    print_emails(page)

if __name__ == '__main__':
    main()