一。每次遇到這種錯誤就頭痛,不知道要害死多少腦細胞了,就在這里做個總結吧
可能會遇到這幾種錯誤:
Undefined symbols for architecture armv7:(iPhone4|iPhone4S|iPad|iPad2|iPad3(The New iPad)|iPad mini|iPod Touch 3G|iPod Touch4)
Undefined symbols for architecture armv7s :(iPhone5|iPhone5C|iPad4(iPad with Retina Display))
Undefined symbols for architecture arm64(iphone5s以上)
Undefined symbols for architecture i386:(模擬器32位處理器測試(iphone5的模擬器))
Undefined symbols for architecture x86_64:(模擬器64位處理器測試(iphone5以上的模擬器))
錯誤原因分析
0、如果只有@interface,沒有@implementation也會導致這個錯誤
1、注意看Build Phases里面的Compile Sources里面有沒有被報錯的類文件,如果沒有的話也會報上面的錯誤
2、大部分情況下是忘記添加了某個系統framework或dylib吧,比如你在項目中使用了sqlite3,但是沒有添加libsqlite3.dylib,就會出現這個問題。解決辦法是增加對應的framework或dylib。
3、如果是在C++里調用C函數,檢查是否有添加extern "C",這可以通過觀察錯誤提示中的函數名形式來決定,如果是C函數而以C ++的方式調用就需要添加extern "C"。
4、如果是把其它工程的xcodeproj文件加入到當前項目中,檢查Build Phases中的Target Dependencies有沒有添加依賴,以及General中的Linked Frameworks and Libraries有沒有添加相關的.a文件。
5、如果添加.a文件編譯無錯而添加xcodeproj文件編譯出錯可參考3
6、如果添加.a文件編譯出錯,首先檢查其對應的頭文件是否添加正確,或者在Build Setting中有沒有添加對應的Header Search Path路徑;其次檢查.a文件的c++編譯選項與當前項目的c++編譯選項是否一致;最后檢查.a文件與當前項目的CPU架構信息是否一致
7、如果是extern變量報這個錯誤,要檢查extern變量有沒有在其它地方聲明,如果沒有則加上;如果外部變量在靜態庫中,可根據5檢查引用頭文件或頭文件搜索路徑是否正確;如果頭文件無問題,就需要檢查靜態庫與與當前項目的CPU架構信息是否一致
8、如果是使用了靜態庫,真機Debug測試時正常,而在執行for iOS Device測試時報這個錯誤,很可能是因為靜態庫支持的架構不全。出現這種情況是Build Setting中的Build Active Architecture Only在Debug下設為Yes,從而使得真機Debug測試正常。
檢查靜態庫的CPU架構支持命令:
lipo -info xxxxx.a
找出不支持arm64的靜態庫
find . -name *.a -exec lipo -info "{}" \;
在@end處提示expected }錯誤解決
問題很明顯是}匹配出現問題了。如果代碼少很好找,如果代碼很多怎么縮小查找范圍呢?一般出現這個問題時伴隨另一個錯誤:在某個函數定義處提示"Use of undeclared identifire 'someMethod'”,那么就是在此函數定義之前的地方少了一個},導致編譯器誤把函數定義當成函數調用了。
1.在模擬器和真機器運行時提示:
1.1.模擬器時:Undefined symbols for architecture x86_64:
"_OBJC_CLASS_$_AVCaptureVideoDataOutput", referenced from:
objc-class-ref in CameraSource.o
"_OBJC_CLASS_$_AVCaptureDeviceInput", referenced from:
objc-class-ref in CameraSource.o
"_OBJC_CLASS_$_AVCaptureSession", referenced from:
objc-class-ref in CameraSource.o
1.2.真機時:Undefined symbols for architecture arm64:
"_OBJC_CLASS_$_AVCaptureVideoDataOutput", referenced from:
objc-class-ref in CameraSource.o
"_OBJC_CLASS_$_AVCaptureDeviceInput", referenced from:
objc-class-ref in CameraSource.o
"_OBJC_CLASS_$_AVCaptureSession", referenced from:
objc-class-ref in CameraSource.o
1.3.解決辦法:
TARGETS->Build Phases->Link Binary With Libraries里添加AudioToolbox.framework和AVFoundation.framework
之前沒添加AudioToolbox.framework和AVFoundation.framework就一直報上面的錯誤,添加完后就好了。
二。文章的最后為了方便小伙伴學習,本博主用 ffmpeg 在 iOS 設備寫了一個實例代碼,主要功能是利用攝像頭實時錄制 yuv 格式文件并編碼 H.264 后,實時分析 H.264 中每個幀(frame)中的 NALU 的數據,希望對小伙伴們有所幫助,找到入門的方法。
在這里上傳一下demo,
鏈接: https://pan.baidu.com/s/1c2y515I 密碼: s2n8
通過真機運行,實現攝像頭采集視頻數據進行編碼成h264數據保存到沙河里
詳細功能介紹請看:https://github.com/Abson/CameraRtmpSDK
http://www.lxweimin.com/p/9522c4a7818d
作者的demo下載后都是零散的文件,我是從新給他整合了下,在x-code里可以直接打開