Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/python/278.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Python 如何在tkinter启动另一个pyton项目?_Python_Tkinter_Inheritance_Tkinter Layout - Fatal编程技术网

Python 如何在tkinter启动另一个pyton项目?

Python 如何在tkinter启动另一个pyton项目?,python,tkinter,inheritance,tkinter-layout,Python,Tkinter,Inheritance,Tkinter Layout,我是tkinter的新员工。我有一个实时情绪检测项目。我从另一个.py文件调用,它们都在同一个文件中。视频捕获部分在test.py中定义,我调用cap方法并添加按钮。但是当我首先运行项目视频捕获时,当我关闭视频捕获修补程序窗口时,当我点击按钮时,它不工作。我的错误在哪里?我希望第一个tkinter窗口出现,当我点击按钮时,它将开始视频捕获。我该怎么办 from tkinter import * from test import cap root = Tk() root.title('Emotio

我是tkinter的新员工。我有一个实时情绪检测项目。我从另一个.py文件调用,它们都在同一个文件中。视频捕获部分在test.py中定义,我调用cap方法并添加按钮。但是当我首先运行项目视频捕获时,当我关闭视频捕获修补程序窗口时,当我点击按钮时,它不工作。我的错误在哪里?我希望第一个tkinter窗口出现,当我点击按钮时,它将开始视频捕获。我该怎么办

from tkinter import *
from test import cap
root = Tk()
root.title('Emotion Detection')
root.iconbitmap(r'C:\Users\Doğukan\OneDrive\Masaüstü\ED\icon.ico')
root.geometry("500x300")
def run():
    return cap
myButton = Button(root, text="calistir",command=run(), padx=50)
myButton.pack(pady=20)
root.mainloop()
test.py

from keras.models import load_model
from time import sleep
from keras.preprocessing.image import img_to_array
from keras.preprocessing import image
import cv2
import numpy as np

face_classifier = cv2.CascadeClassifier('./haarcascade_frontalface_default.xml')
classifier =load_model('./Emotion_Detection.h5')

class_labels = ['Sinirli','Mutlu','Dogal','Uzgun','Saskin','Korkmus']

cap = cv2.VideoCapture(0)

while True:
    ret, frame = cap.read()
    labels = []
    gray = cv2.cvtColor(frame,cv2.COLOR_BGR2GRAY)
    faces = face_classifier.detectMultiScale(gray,1.3,5)

    for (x,y,w,h) in faces:
        cv2.rectangle(frame,(x,y),(x+w,y+h),(0,255,0),2)
        roi_gray = gray[y:y+h,x:x+w]
        roi_gray = cv2.resize(roi_gray,(48,48),interpolation=cv2.INTER_AREA)

        if np.sum([roi_gray])!=0:
            roi = roi_gray.astype('float')/255.0
            roi = img_to_array(roi)
            roi = np.expand_dims(roi,axis=0)

            preds = classifier.predict(roi)[0]
            print("\nprediction = ",preds)
            label=class_labels[preds.argmax()]
            print("\nprediction max = ",preds.argmax())
            print("\nlabel = ",label)
            label_position = (x,y)
            cv2.putText(frame,label,label_position,cv2.FONT_HERSHEY_SIMPLEX,2,(255,255,255),3)
        else:
            cv2.putText(frame,'Yuz Bulunamadi',(20,60),cv2.FONT_HERSHEY_SIMPLEX,2,(0,255,0),3)
        print("\n\n")
    frame= cv2.resize(frame,(860,490))    
    cv2.imshow('Emotion Detector',frame)
    if cv2.waitKey(1) & 0xFF == ord('q'): # çıkma tuşu
        break

cap.release()
cv2.destroyAllWindows()

将主脚本更改为:

从tkinter导入*
从测试导入开始捕获
root=Tk()
root.title('情绪检测')
root.iconbitmap(r'C:\Users\Doğukan\OneDrive\MasaüstüED\icon.ico')
根几何(“500x300”)
def run():
root.destroy()#销毁根,使其不会挂起
start_capturing()#启动`test.py内的函数`
myButton=Button(root,text=“calistir”,command=run,padx=50)
myButton.pack(pady=20)
root.mainloop()
并将您的
test.py
脚本设置为:

从keras.models导入负载模型
从时间上导入睡眠
从keras.preprocessing.image导入img_到_数组
从keras.preprocessing导入图像
进口cv2
将numpy作为np导入
def start_捕获():
face_classifier=cv2.CascadeClassifier('./haarcascade_frontalface_default.xml'))
分类器=加载模型('./情感检测.h5')
类别标签=['Sinirli'、'Mutlu'、'Dogal'、'Uzgun'、'Saskin'、'Korkmus']
cap=cv2.视频捕获(0)
尽管如此:
ret,frame=cap.read()
标签=[]
灰色=cv2.CVT颜色(边框,cv2.COLOR\u BGR2GRAY)
面=面\分类器。检测多尺度(灰色,1.3,5)
对于面中的(x,y,w,h):
cv2.矩形(框架,(x,y),(x+w,y+h),(0,255,0),2)
roi_gray=灰色[y:y+h,x:x+w]
roi_gray=cv2.调整大小(roi_gray,(48,48),插值=cv2.内部区域)
如果np.和([roi_gray])!=0:
roi=roi\u gray.aType(“浮点”)/255.0
roi=img_到_阵列(roi)
roi=np。展开(roi,轴=0)
preds=分类器。预测(roi)[0]
打印(“\n命令=”,preds)
label=class_标签[preds.argmax()]
打印(“\n命令max=,preds.argmax())
打印(“\nlabel=”,标签)
标签位置=(x,y)
cv2.putText(框架,标签,标签位置,cv2.FONT\u HERSHEY\u SIMPLEX,2,(255,255,255),3)
其他:
cv2.putText(frame,'Yuz Bulunamadi',(20,60),cv2.FONT\u HERSHEY\u SIMPLEX,2,(0,255,0),3)
打印(“\n\n”)
frame=cv2。调整大小(frame,(860490))
cv2.imshow(“情绪检测器”,帧)
如果cv2.waitKey(1)和(0xFF==ord(“q”):##ıkma tuşu
打破
第1章释放()
cv2.destroyAllWindows()

command=run()
更改为
command=lambda:run()
将cap
返回到
cap()
也可以请你发布
test.py
中的一些代码吗?@TheLizzard我添加了。@TheLizzard我照你说的做了,它给出了一个TypeError:“cv2.VideoCapture”对象是不可调用的错误。您现在有两个选项:在函数中移动
test.py
中的所有内容并从主文件调用该函数,或者(从主文件)从测试导入上限中移除
,而不是使用
返回上限
。请注意,这两种解决方案都将挂起主窗口,因此您可能需要先关闭它